CS2321n学习笔记——卷积和池化

CS2321n学习笔记——卷积和池化

卷积层和普通的全连接层面的最大差别就是,它可以保全空间结构

在这里插入图片描述
用之前提到的例子继续说明,假如输入的图片尺寸是32x32x3的,这里使用一个5x5x3的卷积核来进行运算,具体步骤是这个卷积核在这个图片结构上滑动,可以理解为5x5的滤波器在32x32的矩阵上滑动一样(在这副图上可以理解成蓝色的方体在粉色的方体内部游走滑动),后面的x3是RGB三个通道层,是数据的深度。
每次滑动后的运算都是点积,也就是将卷积核的每个数值和输入image空间位置上对应的像素值相乘然后对所有积求和,也就是说卷积运算有5x5x3=75次乘法运算。

在这里插入图片描述
而每次运算是将5x5x3=75个像素值经过卷积核的点积加在一起,全部滑动一遍之后整个32x32x3的图像变成了一个激活映射,图中右边蓝色和绿色的两个激活映射就是两个不同卷积核运算后的结果,这一层有几个卷积核就会得到几个这样的映射,也就是说每个卷积核得到一个激活映射。
在这里插入图片描述
如图,如果这一层有6个这样的卷积核,得到的输出就射6个激活映射,总的输出尺寸是28x28x6,再输入给下一层。

在这里插入图片描述
卷积层一层层叠加,每一层处理前一层的输出,卷积核的尺寸也做出相应变化,从而得到越来越高阶的特征。

那么每层卷积层传递给后一层的数据结构是什么呢?
在这里插入图片描述
输出尺寸与输入尺寸、卷积核尺寸还有步幅的运算关系如图,不同的步幅会导致不同的输出尺寸,但必须输出对称,也就是说在步幅的选择上必须除尽(如图中的stride3就不可取)

有时会做零填补(zero padding)来在输入图像周围加一圈像素,来保持输入的尺寸不变。在这里插入图片描述
如果神经网络有多个卷积层(有一定深度),不做边角填补的话,图像的尺寸会迅速减小,到后面就只剩很少的特征,所以零填补(或者其他形式的padding)是很有意义的。
在这里插入图片描述
这是一个例子:输入图像尺寸是32x32x3,用10个5x5的卷积核以步长1,填补2的模式运算,输出尺寸是多少呢?
在这里插入图片描述
结果是32x32x10
这一层的参数有:(5x5x3+1)x10=760个参数,其中x3是卷积核的深度,+1是每个卷积核的偏置项

而且,卷积核的尺寸也可以是1x1
在这里插入图片描述
这样的卷积核意义在于,对输入做深度方向上的卷积。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值