关于padding操作的简单解释

关于padding操作的简单解释

在一般的卷积神经网络里会使用padding操作,用于填充图像周围区域,使得输出的特征图达到想要的尺寸:一般认为输入特征图为m x m 大小,卷积核为n x n大小,则在输出时的图像大小为

                                   (m-n+1) x (m-n+1)

此处是没有进行填充的。

关于此类不做边缘填充的卷积网络会有很明显的问题:特征图在不断缩小,边缘信息传递弱化。

特征图在不断缩小:
显而易见 m-n+1 <= m , n>0
那么随着卷积层数的增加,特征图在不断降维,虽然对于一些问题需要不断降维特征图,提取高级的特征信息,但是存在一些需要保持特征图维度的问题。
边缘信息传递弱化:
在靠近图像中心部分被卷积核扫过的次数总是多余边缘的次数,那么反应在输出特征图中的信息就必然会少于靠近中心的信息,在某些特征图中,图像边缘依然有重要信息,而在无填充卷积过程中,这些信息的传递被卷积操作弱化了。

为了解决这个问题需要对图像进行适当的边缘填充,填充宽度为p,那么原特征图的大小为

                                   (m+2p) x (m+2p)

若希望输出图像的大小不变为m x m时,利用以上的计算公式 m = (m+2p-n+1) 可得

                                      p=(n-1)/2

我们发现padding大小完全取决于卷积核的尺寸,为了n-1是偶数,方便padding,绝大多数计算机视觉的卷积核尺寸采用了奇数尺寸。
————————————————————————
当然,padding方式多种多样:
1.全0填充
2.固定值填充
3.边缘复制填充
4.边缘镜像填充(以最外层像素为轴)
5.边缘对称填充(以图像外边缘为轴)
已知的常用工具中pytorch和tensorflow的padding的api 一般是默认全0填充
matlab的convn函数’same’一般是也是全0填充,且在出现奇数填充分配时,优先添填充图像右下侧

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值