《MULTI-SCALE CONTEXT AGGREGATION BY DILATED CONVOLUTIONS》论文笔记

《MULTI-SCALE CONTEXT AGGREGATION BY DILATED CONVOLUTIONS》

源码地址: caffe    tensorflow

what: 文章提出一个新颖的卷积方式:膨胀卷积。通过膨胀卷积指数式的增长感受野的区域,从而获得更好的稠密分类结果。用语义分割这个很具代表性的稠密分类问题验证了膨胀卷积的有效性。好吧说了这么多,总结起来一句话:通过更好的卷积方式获得更大的感受野提高稠密分割精度。

why:    说到为什么提出这个论点,就不得不提CNN的在一些任务上的致命缺点,尤其是pooing和up-sampling的缺点:

1:up-sampling / pooling layer (e.g. bilinear interpolation) is deterministic. (a.k.a. not learnable)

2:空间信息(数据结构之间的联系)丢失严重

3:小物体无法重建,理论上16个像素的块状体,经过4个pooling后就不能构建

作者提到:目前FCN通过pooing的方式增大感受野,这种方式浪费了很多空间信息。SPP金字塔通过多种尺度的输入图片增大感受野,但是作者并不认为这种分开分析不同尺度的输入是有必要的(毕竟参数数量增大)。于是提出了膨胀卷积,指数式的增大感受野。

how:    卷积(空洞卷积)就是将传统的卷积推广到一个更一般的形式。这个形式并不新颖,其他很多问题中都有类似的推广,本文作者将这个形式推广到了神经网络中来。
我们首先解释普通卷积核的大小选择的影响,如果是连续三个卷积层且卷积核3*3(参考VGG),则这三个卷积层就相当于一个卷积核为7*7的卷积层。它们的感受野都是7*7。之所以用三个3*3不用一个7*7,因为参数数量少了(7*7+1-(3*3*3+3))个。
但是这样一个连续的3个3*3的卷积核最终的感受野才7*7而且随卷积层的增大,感受野以等差的方式增加(
  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值