yolov8改进|注意力机制:BiFormer

各位哥哥姐姐弟弟妹妹大家好,我是干饭王刘姐,主业干饭,主业2.0计算机研究生在读。
和我一起来改进yolov8变身计算机大牛吧!
本文中的论文笔记都是刘姐亲自整理,原创整理哦~

BiFormer简介

论文地址

https://arxiv.org/pdf/2303.08810.pdf

代码地址

https://github.com/rayleizhu/BiFormer.

主要内容(原创整理)

在这里插入图片描述

前述

  • Transformer具有许多适合于构建强大的数据驱动模型的属性。
  • 当注意力在所有空间位置上计算成对的标记亲和力时,它具有很高的计算复杂度,并且会产生大量的内存占用。
  • 为了缓解这个问题,一个有希望的方向是将稀疏注意力引入视觉转换器,这样每个查询只关注一小部分键值对,而不是所有键值对。以这种方式,已经探索了几种手工制作的稀疏模式,例如在局部窗口中限制注意力,扩大窗口或轴向条纹。
  • 也有一些作品试图使稀疏性适应数据。然而,虽然它们使用不同的策略来合并或选择键/值令牌,但这些令牌是查询不可知的,即ÿ
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值