AAAI2022-ShiftVIT: When Shift Operation Meets Vision Transformer

本文介绍了AAAI2022论文ShiftVIT,该研究提出通过移位操作替代Transformer中的注意力机制,实现简单且有效的全局建模。Shift Block将特征沿通道方向移位,以此实现类似注意力的效果。实验证明,ShiftVIT在小模型上可超越Swin Transformer,并揭示了训练策略(如Adam、GELU、LN)对Transformer性能的重要性。
摘要由CSDN通过智能技术生成

论文:【AAAI2022】When Shift Operation Meets Vision Transformer: An Extremely Simple Alternative to Attention Mechanism
代码:https://link.zhihu.com/?target=https%3A//github.com/microsoft/SPACH

B站作者讲解视频:https://www.bilibili.com/video/BV1a3411h7su

研究动机

这个工作是使用一个非常简单的操作取代 attention,取得了非常好的效果。首先介绍一下论文的motivation。作者认为 Tranformer 取得成功的关键在于两个特性:

  • Global:快速的全局建模能力,每个 token都能和其它的 token 发生关联

  • Dynamic:为每个样本动态的学习一组权重

作者的 motivation 就是:能不能用更简单的方式来取代 attention ,更极端的就是 NO global, NO dynamics, and even NO parameter and NO arithmetic calculation 。

为此,作者提出了 shift block,非常简单,本质就是对部分特征进行简单的移位操作来代替 se

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值