YOLOv10改进 | 注意力篇 | YOLOv10引入Deformable Attention Transformer(DAT)注意力机制

1. Deformable Attention Transformer介绍

1.1  摘要:Transformers 最近在各种视觉任务中表现出了卓越的性能。 较大的、有时甚至是全局的感受野赋予 Transformer 模型比 CNN 模型更高的表示能力。 然而,简单地扩大感受野也会引起一些担忧。 一方面,使用密集注意力(例如在 ViT 中)会导致过多的内存和计算成本,并且特征可能会受到超出感兴趣区域的不相关部分的影响。 另一方面,PVT 或 Swin Transformer 中采用的稀疏注意力与数据无关,可能会限制对远程关系进行建模的能力。 为了缓解这些问题,我们提出了一种新颖的可变形自注意力模块,其中自注意力中键和值对的位置以数据依赖的方式选择。 这种灵活的方案使自注意力模块能够专注于相关区域并捕获更多信息特征。 在此基础上,我们提出了可变形注意力变换器(Deformable Attention Transformer),这是一种通用骨干模型,具有可变形注意力,适用于图像分类和密集预测任务。 大量实验表明,我们的模型在综合基准上取得了持续改进的结果。

官方论文地址:https://arxiv.org/pdf/2201.00520

官方代码地址:

  • 4
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值