15 Transformer 框架概述

整体框架

img

机器翻译流程(Transformer)

通过机器翻译来做解释

给一个输入,给出一个输出(输出是输入的翻译的结果)

“我是一个学生” --》(通过 Transformer) I am a student

流程 1

img

编码器和解码器

编码器:把输入变成一个词向量(Self-Attetion)

解码器:得到编码器输出的词向量后,生成翻译的结果

流程 2

img

Nx 的意思是,编码器里面又有 N 个小编码器(默认 N=6)

通过 6 个编码器,对词向量一步又一步的强化(增强)

流程 3

img

说了这么多,了解 Transformer 就是了解 Transformer 里的小的编码器(Encoder)和小的解码器(Decoder)

FFN(Feed Forward):w2((w1x+b1))+b2

流程 4

img
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
基于Transformer的目标检测算法在计算机视觉领域中具有很高的研究价值和应用前景。通过引入Transformer的强大建模能力和并行计算能力,这些算法能够对目标进行更准确的检测和识别。 其中,ViT(Vision Transformer)是将Transformer应用在视觉领域的先驱。相比传统的卷积神经网络(CNN),Transformer具有更大的感受野、更灵活的权重设置方式以及对特征的全局建模能力,因此基于Transformer的骨干网络有潜力为下游任务提供更高质量的特征输入。 另外,Transformer算法在目标检测中的应用也得到了广泛的研究。通过对多种目标检测数据集及其应用场景的概述,从特征学习、目标估计、标签匹配策略和算法应用等方面归纳总结了基于Transformer的目标检测算法。与传统的卷积神经网络相比,Transformer在目标检测任务中的优点主要体现在可以进行更好的特征建模和更灵活的注意力计算。此外,还提出了Transformer目标检测模型的一般性框架,并对Transformer在目标检测领域中的发展趋势进行了展望。 为了降低Transformer模型的计算量,还提出了一些方法。一种方法是通过约束注意力机制的关注范围和输入下采样来缩短注意力层的输入序列,从而降低计算量。例如,Swin Transformer模型引入了滑动窗口和层次化特征,限制了注意力计算在窗口内进行,同时利用多尺度特征处理技术来进行密集预测。相较于ViT,Swin Transformer计算量大幅降低,并可作为通用的视觉骨干网络。另外,基于Transformer的无卷积主干网络PVT通过渐进式衰减金字塔结构和空间缩减注意力机制来降低输入序列的长度,减少模型的计算量。 综上所述,基于Transformer的目标检测算法在计算机视觉领域有着很大的研究潜力和应用价值。这些算法通过引入Transformer的建模能力和并行计算能力,能够提高目标检测的准确性和效率。同时,通过探索降低计算量的方法,这些算法也为实际应用提供了更好的可行性。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [【Transformer】基于Transformer的目标检测算法综述](https://blog.csdn.net/qq_45746168/article/details/129313433)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

沧海之巅

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值