卷积神经网络
特征提取
卷积网络与传统网络的区别:
传统的神经网络
卷积神经网络
可输入图片 三维 h x s x c
整体架构
卷积层进行特征提取,池化层进行特征压缩或者降维
实际在计算中,要每个颜色通道分别去做计算,然后把每个通道的结果汇总到一起
f 为卷积核
f
两个卷积核,卷积核大小为3
然后,同样的方法
…
卷积需要做好多次
步长比较小的时候,是慢慢的提取特征,信息比较丰富,但计算效率低
一般选择 1
边缘填充
就是说边缘的部分 被重复计算的次数少,越靠近中间的部分被重复计算的次数越多,
那怎么填充的呢,有点像高等代数中,行列式的填充解法
本来图片是5x5,现在边界处为1 1 1 2 1 … ,这些部分同样重要,因此,可以在边缘加一圈0,让原本的边界被多次利用,充分提取特征
这里只能添加0边圈,如果添加其他值,会对原本的信息产生影响
有选择性的压缩,比如选择最大值
看动图
或者平均池化,但用的少
卷积和池化只是做特征提取和降维
至于如何从一个立体数据转为分类的概率值
是后面的扁平化+全连接层
残差网络
以后做,可以首选残差网络,它的层数可以越来越多,虽然越到后面,提升的效果不大,但至少不会降低
也就是,好的层数工作,不好的层数置为0(即上面的同等映射,多了条路可走),学完之后,至少不会比原来差
得到的值能感受到前面是由多少个计算得到的,一般希望感受野越大越好