为什么卷积神经网络中一般用奇数的卷积核

今天看到一篇比较有意思的文章,也解开了我一直一个疑问:为什么现在卷积神经网络中卷积核都是奇数的。比如3×3,5×5,7×7.

3×3的卷积核也是在VGG证明了用两个可以代替一个7*7效果更好,且参数还更少。那么为什么没有人用两个2×2的卷积核代替3×3的卷积核,或者就是直接用2×2的卷积代替3×3呢?

今天看到的文章,Convolution with even-sized kernels and symmetric padding这篇文章就解释了整个问题。

特征的便偏移问题:

如果用偶数卷积核话 网络在进行卷积操作时很难找不到卷积的中心点,也就是偶数卷积核不对称这个问题也导致了导致在填充的(padding)的时候像素特征不断偏移.然后随着层次的加深,这个偏移现象就越来越明显。这种偏移问题,在一些任务,比如语义分割,等一些需要知道特征具体像素位置的任务中就产生了很大的影响。下面这张图就是作者论证的。

这些问题也导致了,现在大家基本不用2×2或者4×4之类的卷积核。那么作者是如何解决这个问题的呢。其实也很简单,那就是四个角填充。如下图

作者也论证了这个方法的有效性。我在这里就不细说作者实验部分了。大家感兴趣可以直接去看论文。论文我放在上面了

  • 2
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值