Lec6 Convolutional Neural Networks卷积神经网络
1.Layers
卷积层conv layer
卷积的局部关注性,不关注输入图片的全部,而是局部。
感受野/卷积核/filter,让同一个卷积核划过图片(遍历),在每一个位置和数据点进行点积运算,得到一张特征映射图(maps)。卷积核的数量就是深度。
卷积层可以保留原始数据的空间结构,不会像全连接那样需要把原始数据拉伸操作。
采用多个卷积核来提取多种”特征”,(深度、层数的概念),每一个的输出maps尺寸相同。多层卷积核的输出结果堆叠效果示意:
卷积过程中的参数问题。如果要补零,N的大小则是补零后的边长数目,示意如下:
每个卷积核公用一个偏值b,计算参数数目的时候不要忘记了b。池化层pooling layer
降采样,使后面的参数量减少。不做深度方向的降采样,只做平面上的降采样。滑动步长设置要避免重叠,让每一个值更好的代替一个区域。
max pooling相对于均值pooling能使受刺激程度更显著。全连接层 fully connected layer
“stretch to”
层间堆叠示意
conv layer、Reli layer(某种激活层)、pooling layer、fullcon layer的堆叠示意:
池化的次数、滑动步长和核的大小等都是超参数, 需要try and see。一个趋势是卷积核小化,层数更深。