Arxiv:Computer Vision and Pattern Recognition方向论文速读

2023.3.17-BiFormer: Vision Transformer with Bi-Level Routing Attention

论文链接:https://arxiv.org/pdf/2303.08810.pdf
代码链接:https://github.com/rayleizhu/BiFormer

动机

  • 注意力是捕捉长距离依赖性的有力工具,但它产生了巨大的计算负担和沉重的内存占用,因为要计算所有空间位置上的成对标记互动
  • 一系列的工作试图缓解这个问题通过在注意力中引入手工制作的和与内容无关的稀疏性到注意力中,例如将注意力操作限制在在局部窗口、轴向条纹或扩张窗口内

方法简述

  • 提出了一种新的通过双级路由的动态稀疏关注,以实现对具有内容意识的计算的更灵活分配
  • 对于一个查询,不相关的键值对首先在粗略的区域层面被过滤掉,然后在剩余的候选区域(即路由区域)的union中应用细粒度的token-to-token的关注。

框架

在这里插入图片描述

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值