1.卷积层
对图像(不同的数据窗口数据)和滤波矩阵(一组固定的权重:因为每个神经元的多个权重固定,所以又可以看做一个恒定的滤波器filter)做内积(逐个元素相乘再求和)的操作就是所谓的『卷积』操作,也是卷积神经网络的名字来源。
非严格意义上来讲,下图中红框框起来的部分便可以理解为一个滤波器,即带着一组固定权重的神经元。多个滤波器叠加便成了卷积层。
图中左边部分是原始输入数据,图中中间部分是滤波器filter,图中右边是输出的新的二维数据。
CNN的卷积核通道数 = 卷积输入层的通道数;CNN的卷积输出层通道数 = 卷积核的个数
在计算过程中,输入是一定区域大小(width*height)的数据,和滤波器filter(一组固定的权重)做内积后等到新的二维数据。
对于下图中,左边是图像输入,中间部分就是滤波器filter(一组固定的权重),不同的滤波器filter会得到不同的输出数据,比如轮廓、颜色深浅。相当于如果想提取图像的不同特征,则用不同的滤波器filter,提取想要的关于图像的特定信息:轮廓或颜色深浅。
随着左边数据窗口的滑动,滤波器Filter w0对不同的局部数据进行卷积计算。
左边数据在变化,即每次滤波器都是针对某一部分数据窗口进行卷积,这就是所谓的CNN中的局部连接机制。
与此同时,数据窗口滑动,但中间滤波器Filter w0的权重(即每个神经元连接数据窗口的的权重)是固定不变的,这个权重不变即所谓的CNN中的参数共享机制。
其实,类似wx + b,w对应滤波器Filter w0,x对应不同的数据窗口,b对应Bias b0,相当于滤波器Filter w0与一个个数据窗口相乘再求和后,最后加上Bias b0得到输出结果-1,
0*-1+0*0+0*1+
0*0+0*1+1*0+
0*0+2*-1+0*-1=-2 -2+(-1)+1+bias1=-1
2.池化层
最大池化
MAXPOOL2D
保留数据特征,同时把数据量减小
2.1dilation空洞卷积
2.2ceil_mode
true为上取整
2.3stride
stride – the stride of the window. Default value is kernel_size
2.4过程-取最大值
cell保留3