Transformer总结(2022版)

本文旨在梳理自2017年以来流行的Transformer模型,帮助读者理解Transformer家族的发展和不同变体。Transformer的核心是多头注意力机制,常用于预训练任务如语言建模、完形填空等,并广泛应用于问答、情感分析等领域。
摘要由CSDN通过智能技术生成
作者:Xavier Amatriain  翻译: 炼丹小生

很多人的“记忆”并没那么好,特别是对名字.这些年各种各样的transformer涌现出来,各有各的优势,但是他们的名字却不能直白的看出该版本的transformer到底做了什么.这篇的目的就是把所有流行的transformer进行清晰简单的分类,以便大家对transformer家族快速梳理。

e6b3408a8b519862c35f665e418869e3.png

Transformer是什么就不用多说了,2017年开始至今引用量将近4w的论文<Attention is All you Need>提出了一个encoder-decoder的模型取代了历年一直用的LSTM或者其他RNN,正如标题所述该论文最重要的就是Attention结构了.Transformer最基础的结构如下所示:

12e9263829f6e799d8ad278b6bba5408.png

顺便温习一下最"核心"的multi-headed attention结构,该结构"匹配"query和key-value对,并且输出

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值