[Paper Reading Note]Aggregated Residual Transformations for Deep Neural Networks

Paper Reading Note

URL: https://arxiv.org/pdf/1611.05431.pdf

TL;DR


提出了一种新的backbone结构ResNeXt用于图像分类任务,该结构具有同质性,具有多个相同拓扑结构的branch,这种结构也引入了除width, depth之外的一种新的维度cardinality(基数),实验证明,增加基数能够提高分类准确性,同时,随着模型容量增多,增加基数也比增加宽度和深度更加有效

Dataset/Algorithm/Model/Experiment Detail

ResNeXt的结构如图1右侧所示,其使用了VGG/ResNets中重复网络层的策略,同时希望在保证FLOPs和参数量不变的情况下,使用一种简单的方式来探索split-transform-merge策略。这种策略在Inception被广泛使用,但和所有Inception都不同的是,ResNeXt中所有的branch都具有相同的拓扑结构,因此,path的数量也可以单独作为一个被观察的因素。
在这里插入图片描述
图1左侧的ResNet参数量计算如下:

图1右侧的ResNeXt的参数量为:
在这里插入图片描述
在bottleneck参数 d = 4 d=4 d=4 ,基数等于32的情况下,公式(4)也约为70k,因此二者参数量大致相同,对于ResNeXt中block,作者则给出了三种等价的实现,如图3©所示,ResNeXt可以认为是在ResNet中加入了group conv在这里插入图片描述

以图3©为基础设计的template以及其参数量计算如表1所示
在这里插入图片描述
实验部分,如表3所示,一定范围内增大基数确实可以提升模型性能

表4则显示,在增加计算量时,增加基数获得的收益要超过增加深度和宽度
在这里插入图片描述
在分类任务上的结果如表5和表6所示

在这里插入图片描述
在COCO上的检测结果如表8所示,同样有提升
在这里插入图片描述

Thoughts

把Inception的思想融合进ResNet,但使用同质的拓扑结构,增加了基数这一参数,在计算量不变的前提下,提升了ResNet的性能

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值