CNN,位移不变性探索, Making Convolutional Networks Shift-Invariant Again

未经transform增强的数据,在面对样本位移时会丧失鲁棒性,针对这一问题Making Convolutional Networks Shift-Invariant Again做出了解释并提出解决方案:

论文中认为,常规CNN网络产生shift-variance是由于stride以及下采样的操作过硬导致的

用一维数据很容易理解,用k=2,s=2的maxpool对[0,0,1,1,0,0,1,1]操作时得到 [0,1,0,1],当数据发生平移[0,1,1,0,0,1,1,0],输出结果发生巨大变化[1,1,1,1],个人认为通俗些说,CNN中存在的reduction操作都可能导致shift-variance,结合个人理解得到下述结论,shift-variance是由于stride以及下采样的操作过硬导致的频谱泄露

作者的解决方案也很清晰,下采样前用高斯平滑核将图片平滑一下,再下采样,作用很简单,降低高频像素评率,增加其空间分布尺度,避免过硬的下采样将相关信息漏掉

项目中遇到Fasterrcnn在检测小目标时,同一目标发生位移会导致漏检,即可对stride con,以及Roi pooling 做平滑

引用  Making Convolutional Networks Shift-Invariant Again

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值