一篇非常好的transformer年度总结

作者:Xavier Amatriain

翻译: 炼丹小生(炼丹笔记)

很多人的“记忆”并没那么好,特别是对名字.这些年各种各样的transformer涌现出来,各有各的优势,但是他们的名字却不能直白的看出该版本的transformer到底做了什么.这篇的目的就是把所有流行的transformer进行清晰简单的分类,以便大家对transformer家族快速梳理

简介

4b7238e8c67306326322920e1152ccfe.png

Transformer是什么就不用多说了,2017年开始至今引用量将近4w的论文<Attention is All you Need>提出了一个encoder-decoder的模型取代了历年一直用的LSTM或者其他RNN,正如标题所述该论文最重要的就是Attention结构了.Transformer最基础的结构如下所示:

10464ef843b5cb1c474d94a8f431c749.png

顺便温习一下最"核心"的multi-headed attention结构,该结构"匹配"query和key-value对,并且输出value的权重和,value的权重来自于query和key的attention值.Transformer结构使用了多头机制,并行计算特定的attention值,计算方式采用的是Scaled Dot-Product Attentio,如下图所示:

559a48c2a018c3746caf073623f52b0d.png

总结transformer主要由以下几个部分组成:

预训练架构: Encoder-Decoder

预训练任务: 

  • Language Modeling(LM) 预测下个token

  • Masked Language Modeling(MLM) 完形填空

  • Permuted Language Modeling(PLM) 对句子做排列

  • Denoising Autoencoder(DAE): 句子中做随机采样,或者随机删除一些token,又或是打乱句子顺序,目标是恢复之前的输入

  • Contrastive Learning(CTL): 各种对比学习方法

应用:问答、情感分析、实体识别等.

Catalog table

e8a446aecbac5fab043a54257007fab2.png

16024d3858e3adf201d7da9d6704f2d2.png

8f5046e061ab530b0aa34d3ee6ebfe10.png

e4403c6ff2ec70ad3d8b5e409572b802.png

882e5e5e564d8003cb25936c2fa9c1d2.png

76d2fb2015689dbe0595a5f835c9e76a.png

看不清打开该路径:

https://docs.google.com/spreadsheets/d/1ltyrAB6BL29cOv2fSpNQnnq2vbX8UrHl47d7FkIf6t4/edit#gid=0

Transfromer族谱及时间线

7d83da2485448c24063728b96cb44be8.png

72b0b142e75b2f2e4a42b43b84bb017e.png

2d6af7ff9aa1b5fa5ba27774f8900c0f.png

参考文献

d4cd0ed74037c1b86ff24274ea321967.png

1.https://xamat.medium.com/transformers-models-an-introduction-and-catalogue-2022-edition-2d1e9039f376b025b181227394e240d0bf49a042f38a.png

outside_default.png

点个在看 paper不断!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值