Transformer 的通用建模能力

像素-像素,物体-像素和物体-物体的关系建模。此前,前两种关系建模主要是分别由卷积和 RoIAlign 来实现的,最后一种关系通常没有很好的建模方法。但是,Transformer 中的注意力单元因其通用的建模能力,可以被应用到所有这些基本关系的建模中。
在这里插入图片描述
一方面 Transformer 可以看作是一种图建模方法。图是全连接的,节点之间的关系通过数据驱动的方式来学习得到。由于任意概念(无论具体或抽象)都可以用图中的节点来表示,且概念之间的关系可以用图上的边来刻画,因此 Transformer 建模具有很强的通用性。

另一方面,Transformer 通过验证的哲学来建立图节点之间的关系,具有较好的通用性:无论节点多么异构,它们之间的关系都可以通过投影到一个可以比较的空间里计算相似度来建立。如图4(右)所示,节点可以是不同尺度的图像块,也可以是“运动员”的文本输入,Transformer 均可以刻画这些异构节点之间的关系。

卷积可以看作是一种模板匹配,图像中不同位置采用相同的模板进行滤波。而 Transformer 中的注意力单元则是一种自适应滤波,模板权重由两个像素的可组合性来决定,这种自适应计算模块具有更强的建模能力。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
基于Transformer的目标检测算法在计算机视觉领域中具有很高的研究价值和应用前景。通过引入Transformer的强大建模能力和并行计算能力,这些算法能够对目标进行更准确的检测和识别。 其中,ViT(Vision Transformer)是将Transformer应用在视觉领域的先驱。相比传统的卷积神经网络(CNN),Transformer具有更大的感受野、更灵活的权重设置方式以及对特征的全局建模能力,因此基于Transformer的骨干网络有潜力为下游任务提供更高质量的特征输入。 另外,Transformer算法在目标检测中的应用也得到了广泛的研究。通过对多种目标检测数据集及其应用场景的概述,从特征学习、目标估计、标签匹配策略和算法应用等方面归纳总结了基于Transformer的目标检测算法。与传统的卷积神经网络相比,Transformer在目标检测任务中的优点主要体现在可以进行更好的特征建模和更灵活的注意力计算。此外,还提出了Transformer目标检测模型的一般性框架,并对Transformer在目标检测领域中的发展趋势进行了展望。 为了降低Transformer模型的计算量,还提出了一些方法。一种方法是通过约束注意力机制的关注范围和输入下采样来缩短注意力层的输入序列,从而降低计算量。例如,Swin Transformer模型引入了滑动窗口和层次化特征,限制了注意力计算在窗口内进行,同时利用多尺度特征处理技术来进行密集预测。相较于ViT,Swin Transformer计算量大幅降低,并可作为通用的视觉骨干网络。另外,基于Transformer的无卷积主干网络PVT通过渐进式衰减金字塔结构和空间缩减注意力机制来降低输入序列的长度,减少模型的计算量。 综上所述,基于Transformer的目标检测算法在计算机视觉领域有着很大的研究潜力和应用价值。这些算法通过引入Transformer建模能力和并行计算能力,能够提高目标检测的准确性和效率。同时,通过探索降低计算量的方法,这些算法也为实际应用提供了更好的可行性。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [【Transformer】基于Transformer的目标检测算法综述](https://blog.csdn.net/qq_45746168/article/details/129313433)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Gallant Hu

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值