Res2Net论文解读

​ 论文:https://arxiv.org/abs/1904.01169

​ Abstract:在多个尺度上表示特征对于许多视觉任务非常重要。卷积神经网络(CNN) backbone 的最新进展不断展示出更强的多尺度表示能力,从而在广泛的应用中实现一致的性能提升。然而,大多数现有方法以分层方式(layer-wise)表示多尺度特征。在本文中,我们通过在一个单个残差块内构造分层的残差类连接,为CNN提出了一种新的构建模块,即Res2Net。Res2Net 以更细粒度(granular level)表示多尺度特征,并增加每个网络层的感受野(receptive fields)范围。所提出的Res2Net块可以融合到最先进的 backbone CNN模型中,例如ResNet,ResNeXt和DLA。我们在所有这些模型上评估 Res2Net 模块,并在广泛使用的数据集(例如CIFAR-100和ImageNet)上展示相对于基线模型的一致性能提升。关于代表性计算机视觉任务的进一步消融研究和实验结果,即目标检测,类激活 mapping 和显著目标检测,进一步验证了Res2Net相对于现有技术的基线方法的优越性。源码和训练模型将之后公开。

​ 论文Res2Net: A New Multi-scale Backbone Architecture:在Resnet的bottleneck基础上,提出了参数量更少的bottleneck,如下图:

1

​ 图a为Resnet提出的标准网络,图b为本文提出。如图b所示,把 3 × 3 3 \times 3 3×3的卷积分为s个group, x 1 , x 2 , x 3 , x 4 {x_1},{x_2},{x_3},{x_4} x1,x2,x3,x4的大小与上面的 1 × 1 1 \times 1 1×1的卷积一样,但是channel都为其的 。

y i = { x i i = 1 K i ( x i + y i − 1 ) 1 &lt; i ⩽ s ​ \mathbf{y}_{i}=\left\{\begin{array}{ll}{\mathbf{x}_{i}} &amp; {i=1} \\ {\mathbf{K}_{i}\left(\mathbf{x}_{i}+\mathbf{y}_{i-1}\right)} &amp; {1&lt;i \leqslant s}\end{array}\right.​ yi={xiKi(xi+yi1)i=11<is

​ 输出 公式如上,可知在一个bottleneck内部又进行了类似外部的跳跃连接,最后 y 1 , y 2 , y 3 , y 4 {y_1},{y_2},{y_3},{y_4} y1,y2,y3,y4进行concat操作,使得channel保持不变。需要注意的是他split的第一个即 x 1 {x_1} x1是直接映射到 y 1 ​ {y_1}​ y1的,作者说这有两层含义:①为了减少参数;②特征重利用。

​ 作者在ResNet-50, ResNeXt-50 和 DLA-60 作为baseline进行实验。实验的框架使用的是pytorch,为公平实验作者复现了这三个网络,此外把其原始的bottleneck用本文提出的代替进行新的实验,并取得了好的结果。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值