由SPPnet有关解决深度网络输入必须固定的问题思考

       今天在看和目标检测相关的系列论文(rcnn-sppnet-fast-rcnn,faster-rcnn),在看到SPP-net时,提到sppnet解决了深度网络要求输入必须固定的问题。而且分析了深度网络需要固定输入尺寸的原因是因为有全链接层,那么是为什么呢?


     仔细思考下,在有卷积层和全连接层的深度神经网络,不同大小的输入图片对卷积参数的训练是没有影响的(不同大小的输入图片对卷积核的尺寸和个数以及其训练均无关),但加上全连接后,最后的卷积层的输出要与首个fc层的所有节点进行全连接操作。这里以首层fc有4096个节点为例。当输入图片的尺寸为size1时,最后的卷积输出为output1个feature 节点,则fc层中全连接形式是output1与4096全连接;当输入图片的尺寸为size2时,最后的卷积输出为output2个feature 节点,则fc层中全连接形式是output2与4096全连接,若output1>output2,且output1-output2=out,那么当size2大小的图片输入进神经网络后,在第一个fc层会出现在最后的卷积输出的特征中缺少out个特征节点与其相互全连接。 

因此,这就是为什么因为由全连接的存在深度网络需要固定输入尺寸。

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值