【论文标题】Bottleneck Transformers for Visual Recognition

声明

不定期更新自己精读的论文,通俗易懂,初级小白也可以理解

涉及范围:深度学习方向,包括 CV、NLP、Data fusion、Digital Twin

论文标题:Bottleneck Transformers for Visual Recognition

论文链接:https://arxiv.org/abs/2101.11605v1

论文代码:https://github.com/tensorflow/tpu/tree/master/models/official/detection

发表时间:2021年8月

创新点

1、提出一种简单架构 BoTNet

2、提出一种具有自注意力机制的 ResNet 块

Abstract

我们提出了 BoTNet,这是一种概念上简单但功能强大的主干架构,它结合了用于多个计算机视觉任务的自注意力,包括图像分类、对象检测和实例分割。通过仅在 ResNet 的最后三个块中用全局自注意力替换空间卷积并且没有其他更改,我们的方法在实例分割和对象检测方面显着改进了基线同时还减少了参数,而延迟开销最小

通过 BoTNet 的设计,我们还指出了具有自注意力的 ResNet 块可以被视为 Transformer 块。没有任何花里胡哨,BoTNet 使用 Mask R-CNN 框架在 COCO Instance Segmentation benchmark 上实现了 44.4% 的 Mask AP 和 49.7% 的 Box AP;超过了在 COCO 验证集上评估的 ResNeSt 之前发表的最佳单一模型和单一尺度结果。

最后,我们展示了对 BoTNet 设计的简单改编以用于图像分类,从而使模型在 ImageNet 基准测试中实现了 84.7% 的 top-1 准确率,同时在“计算”方面比流行的模型快 1.64 倍 TPU-v3 硬件上的 EfficientNet 模型。 我们希望我们简单而有效的方法能够为未来视觉自注意力模型的研究奠定坚实的基础。

Method

BoTNet-50 架构是由 ResNet-50 修改得到,由图中可知是由 ResNet-50 中的 stage-c5 中的 3*3 卷积变成了 MHSA(多头自注意力机制)

MHSA

BoT 块中使用的多头自我注意 (MHSA) 层

all2all 注意力是在 2D 特征图上执行的,其高度和宽度分别具有分割的相对位置编码 Rh 和 Rw

注意最终是 qkT + qrT,再进入 softmax 层中进行

其中 q、k、r 分别代表查询、键和位置编码(作者使用相对距离编码)

分别代表矩阵乘法和逐元素求和,而 1 × 1 代表逐点卷积。

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

来自γ星的赛亚人

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值