为什么CNN中的卷积核大小都是奇数?

为什么CNN中的卷积核大小都是奇数?

主要有两点原因:

1.便于进行padding。

在卷积时,若要卷积前后的尺寸不变。需要对原图进行padding。

假设图像的大小,也就是被卷积对象的大小为n∗n,卷积核大小为k∗k

当padding的幅度设为(k−1)/2

保证了卷积前后尺寸不变。但是如果k是偶数的话,(k−1)/2

就不是整数了。

2.容易找到卷积锚点

在像素这个领域里,偶数框其实是没有一个“绝对的物理中心”的

奇数相对于偶数,有中心点,对边沿、对线条更加敏感,可以更有效的提取边沿信息。保证了 padding 时,图像的两边依然相对称

偶数也可以使用,但是效率比奇数低。在数以万计或亿计的计算过程中,每个卷积核差一点,累计的效率就会差很多。

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值