c# split效率低_ResNeSt: Split-Attention Networks阅读笔记

Paper:https://hangzhang.org/files/resnest.pdf

Code:https://github.com/zhanghang1989/ResNeSt/blob/master/resnest/torch/resnest.py

这两天被吹上天的论文,今天来精读一下。这个论文需要ResNeXt和SKNet的先验知识。文中讲解了提升精度的技巧,但是开源的Pytorch代码里好像并没有包含这些技巧。

摘要:虽然图像分类获得了长足的发展,但是其扩展应用却还在使用ResNet变体作为backbone,当然这个得益于ResNet简单及模块化的结构。本文提出了模块化的分离注意力块,使的注意力机制可以跨特征图组(ResNeXt)。通过类似于ResNet变体似的堆叠分离注意力块,得到新的ResNet变体,称为ResNeSt。此网络保留了全部的ResNet结构(BottleNeck等),可以直接用于拓展视觉任务,而且不会引入额外的计算成本。与复杂度相同的网络(ResNeXt)相比,ResNeSt在图像分类数据集ImageNet实现了超过1%精度提升。而且在拓展业务上也有较大提升。

知识点解析:

由于ResNet模型设计初衷是为图像分类任务设计的,它可能不适合拓展应用,因为感受野大小有限且缺乏跨通道信息交互。这意味着需要对ResNet些许调整才能用于具体的视觉任务。由此也得到一个疑问,是否可以设计一个通用性较强的网络呢?此论文的第一个贡献,探究修改ResNet的架构,即将特征图的注意力分散到各个网络块中。具体来说,将特征图沿着通道维度将特征图分组,其中每组特征表示由其内部分离的加权和(权重基于全局上下文信息)决定。为保证网络的低耦合,设计了分离注意力模块,堆叠此模

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值