为什么CNN中的卷积核大小都是奇数?
主要有两点原因:
1.便于进行padding。
在卷积时,若要卷积前后的尺寸不变。需要对原图进行padding。
假设图像的大小,也就是被卷积对象的大小为n∗n,卷积核大小为k∗k
当padding的幅度设为(k−1)/2
保证了卷积前后尺寸不变。但是如果k是偶数的话,(k−1)/2
就不是整数了。
2.容易找到卷积锚点
在像素这个领域里,偶数框其实是没有一个“绝对的物理中心”的
奇数相对于偶数,有中心点,对边沿、对线条更加敏感,可以更有效的提取边沿信息。保证了 padding 时,图像的两边依然相对称
偶数也可以使用,但是效率比奇数低。在数以万计或亿计的计算过程中,每个卷积核差一点,累计的效率就会差很多。