YOLOv9改进 添加三分支注意力机制TripletAttention

一、TripletAttention论文

论文地址: 2010.03045.pdf (arxiv.org)

二、TripletAttention结构

对于输入张量,TripletAttention通过旋转操作和残差变换建立维度间依赖关系,并以可忽略的计算开销对通道间和空间信息进行编码。TripletAttention通过几乎无参数的特点来建模通道注意和空间注意。如下图所示,TripletAttention由三个平行的Branch组成,其中前两个分支负责捕获通道C和空间W或H之间的跨维度交互,最后一个最后一个Branch类似于CBAM(Convolutional Block Attention Module)结构,用于构建Spatial Attention。最终3个Branch的输出使用平均进行聚合。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Triplet attention是一种通过使用分支结构捕获跨维度交互来计算注意力权重的新方法。它由个平行的分支组成,其中两个分支负责捕获通道和空间之间的跨维度交互,而最后一个分支类似于CBAM,用于构建空间注意力。这分支的输出通过平均求和来得到最终的注意力权重。Triplet attention的优势在于它能够在计算注意力权重时捕获跨维度的依赖关系,从而提高了性能。它的设计简单而有效,可以轻松地作为附加模块插入经典的骨干网络。实验证明,triplet attention在图像分类和目标检测等各种计算机视觉任务中表现出了良好的性能。\[1\]\[2\]\[3\] #### 引用[.reference_title] - *1* [注意力机制:基于Yolov5/Yolov7的Triplet注意力模块,即插即用,效果优于cbam、se,涨点明显](https://blog.csdn.net/m0_63774211/article/details/130386790)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [Triplet Attention -接近无参注意力| Rotate to Attend: Convolutional Triplet Attention Module](https://blog.csdn.net/weixin_42096202/article/details/108970057)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

学yolo的小白

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值