关于padding操作的简单解释
在一般的卷积神经网络里会使用padding操作,用于填充图像周围区域,使得输出的特征图达到想要的尺寸:一般认为输入特征图为m x m 大小,卷积核为n x n大小,则在输出时的图像大小为
(m-n+1) x (m-n+1)
此处是没有进行填充的。
关于此类不做边缘填充的卷积网络会有很明显的问题:特征图在不断缩小,边缘信息传递弱化。
特征图在不断缩小:
显而易见 m-n+1 <= m , n>0
那么随着卷积层数的增加,特征图在不断降维,虽然对于一些问题需要不断降维特征图,提取高级的特征信息,但是存在一些需要保持特征图维度的问题。
边缘信息传递弱化:
在靠近图像中心部分被卷积核扫过的次数总是多余边缘的次数,那么反应在输出特征图中的信息就必然会少于靠近中心的信息,在某些特征图中,图像边缘依然有重要信息,而在无填充卷积过程中,这些信息的传递被卷积操作弱化了。
为了解决这个问题需要对图像进行适当的边缘填充,填充宽度为p,那么原特征图的大小为
(m+2p) x (m+2p)
若希望输出图像的大小不变为m x m时,利用以上的计算公式 m = (m+2p-n+1) 可得
p=(n-1)/2
我们发现padding大小完全取决于卷积核的尺寸,为了n-1是偶数,方便padding,绝大多数计算机视觉的卷积核尺寸采用了奇数尺寸。
————————————————————————
当然,padding方式多种多样:
1.全0填充
2.固定值填充
3.边缘复制填充
4.边缘镜像填充(以最外层像素为轴)
5.边缘对称填充(以图像外边缘为轴)
已知的常用工具中pytorch和tensorflow的padding的api 一般是默认全0填充
matlab的convn函数’same’一般是也是全0填充,且在出现奇数填充分配时,优先添填充图像右下侧