机器学习22:全卷积神经网络中卷积层替换全连接层的意义

机器学习22:FCN中卷积层替换全连接层的意义

          上一篇博客介绍了全连接神经网络,关于卷积层替换CNN中全连接层的可行性和优势叙述的不够清晰,在此进一步补充。本文主要参考了为什么使用卷积层替代CNN末尾的全连接层为什么将全连接层替换为卷积层?

1.卷积层替换全连接层的可行性:

         卷积层是局部连接,它的特点是稀疏连接和权值共享;而全连接层使用了图像的全局信息,每个神经元都与上一层的所有神经元相连接。

        “最大的局部”和“全局”这两个概念其实是等价的,因此卷积层替换全连接层是可行的。

 

2.全连接层到卷积层的转换:

         下图显示了AlexNet卷积化的过程,假设执行特征提取的卷积层的最后一层输出为256*7*7,得到后面的4096个神经元;那么改为用7*7的卷积核对该256*7*7的输出特征图做卷积,也可以获得4096*1*1的向量。由于卷积核大小和输入的特征图尺寸相同,就保证了转换后的卷积层的运算结果和之前的全连接层是一样的。

        假设图像尺寸大一些,执行特征提取的卷积层的最后一层输出为256*12*12,经过7*7卷积核的卷积,得到了4096*6*6的向量,此时6*6个神经元就有了位置信息。

3.全连接层转换为卷积层的原因:

         用卷积层替换全连接层可以让卷积网络在一张更大的输入图片上滑动,得到每个区域的输出,这样就突破了此前对于图像输入尺寸的限制。

         对于传统的 CNN(即包含全连接层的网络结构),一个确定的网络其输入图像的大小是固定的,比如 CaffeNet 的输入必须是 227*227,对于更大的图像在检测时就需要裁剪出很多 227*227 的小图像分别送入 CNN 网络中,使得检测任务十分耗时。固定大小是指送入网络训练的每一个数据大小需要一样,可以都是 227*227,也可以都是 224*224,但这个尺寸值必须要统一。这样要求的原因是全连接层与前一层连接时参数数量需要预先设定好。而网络需要输入固定大小图像的主要原因就是有全连接层。

         当把全连接层替换成了卷积层后就可以不限制输入图像的大小,一次性输入网络即可获得一张图片所有位置的检测目标概率,形成一幅 heatmap。

         这是因为卷积操作与全连接不同,卷积核的参数数量,也就是卷积核的大小,它与前一层的特征图尺寸是没有关系的;但是全连接层的参数是随着前一层特征图的大小变化而变化的,当输入图像大小不同,全连接层输入的特征图大小也不一样,那么全连接层的参数数量就不能确定,所以采用全连接层的网络必须固定输入图像的大小,而替换为卷积层后就实现了对输入图像尺寸限制的突破。

4.参考资料:

         (1)为什么使用卷积层替代CNN末尾的全连接层

         (2)为什么将全连接层替换为卷积层?

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值