2021秋招-NLP基础-Attention-预训练模型总结

NLP基础-预训练模型总结

现有笔记、资源整理

一. Attention:

常见问题-看完应该懂得:

1. attention的思想
2. attention的发展历程,不同的attention的计算方式
3. self-attention 到 bert的跨越。  
4. attention的优点、缺点

入门篇–最基础attention到transformer

bili-BERT专题系列(一):Attention机制

bili-BERT专题系列(二):Transformer(Attention is all you need)

bilibili-从零解读碾压循环神经网络的transformer模型(一)

bilibili-BERT的解读语言模型预训练-实践应用-transformer模型(二)

bilibili-贪心学院-Self-Attention与Transformer

建议手动推导+torch实现一遍-动手推导Self-Attention

总结篇

其他链接:

基于1:【注意力机制综述】基础原理、变种和最近研究

一、Attention回顾

二、相关工作

三、Attention的变种

1. Feed forward attention
2. Self Attention⭐
3. Multi Head Attention⭐
4.Convolution Attention
5. Pyramid Attention
6. Co Attention
7. Cross Attention
⭐8. Soft vs. Hard Attention
⭐9. Global vs. Local Attention
10. Compositional Attention
11.Dual Attention

四、总结

⭐遍地开花的 Attention ,你真的懂吗?

History

2015-2017:
  • 2015 ICLR NMT additive attention;
  • 2015 EMNLP NMT 对齐函数创新;
  • 2015 ICML hard-soft attention
  • 2016-2017 Hiearchical Attention、Attention over Attention、multi-step Attention
2017-~
  • 2017 NIPS 《Attention is all of your need》 Transformer
  • 2018 BERT

2. what is Attention ?

alignment-based

在这里插入图片描述

memory-based

在这里插入图片描述

⭐ self-attention vs. multi-head attention

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

不推荐-Attention 扫盲:注意力机制及其 PyTorch 应用实现-针对机器翻译

attention变种-从三大顶会论文看百变Self-Attention⭐

Attention注意力机制的前世今身:attention种类总结

注意力统一化描述

将 Attention 从 seq2seq 框架中抽取出来,可以描述为下图所示:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

其他

为节约而生:从标准Attention到稀疏Attention

知乎问题-目前主流的attention方法都有哪些?


二、BERT

常见问题以及需掌握基础

  1. BERT的结构: 比如: 12层,8heads之类的; LN、残差连接
  2. BERT的编码:3个编码分别是什么,什么功能;
  3. BERT的训练任务,以及各自目的;
  4. BERT的思想、训练语料、与之前模型不同
  5. BERT缺点等等
  6. BERT的参数量计算

原理-transformer笔记

原理-【transformer】 你应该知道的 transformer

⭐ 源码-BERT源码分析PART I

BERT参数量计算-考虑了bias

分析-理解BERT每一层都学到了什么

概述:ACL 2019 What does BERT learn about the structure of language? 文章的解读,分析 BERT每层学到了什么。

1. 短语句法

2. 探测任务

3.主谓一致

4.组合结构


分析-Attention!注意力机制可解释吗?

前言

参考来源
NAACL 2019《Attention is Not Explanation》
ACL 2019《Is Attention Interpretable?》
EMNLP 2019《Attention is Not Not Explanation》

本文将与您探讨注意力机制的可解释性问题。


分析-BERT知识:Dive into BERT:语言模型与知识

分析-台湾小哥一篇论文把BERT拉下神坛!NLP神话缺了数据集还不如随机

香侬读 | Transformer中warm-up和LayerNorm的重要性探究

其他整理

  1. 【ACL 2019】预训练语言模型的最新探索

三、BERT后时代:预训练模型

推荐⭐⭐⭐知乎- NLP算法面试必备!史上最全!PTMs:NLP预训练模型的全面总结

在这里插入图片描述

一、为什么要进行预训练?

深度学习时代,为了充分训练深层模型参数并防止过拟合,通常需要更多标注数据喂养。在NLP领域,标注数据更是一个昂贵资源。PTMs从大量无标注数据中进行预训练使许多NLP任务获得显著的性能提升。总的来看,预训练模型PTMs的优势包括:

  1. 在庞大的无标注数据上进行预训练可以获得更通用的语言表示,并有利于下游任务。
  2. 为模型提供了一个更好的初始化参数,在目标任务上具备更好的泛化性能、并加速收敛。
  3. 是一种有效的正则化手段,避免在小数据集上过拟合(一个随机初始化的深层模型容易对小数据集过拟合。)

二、什么是词嵌入和分布式表示?PTMs与分布式表示的关系?

词嵌入是自然语言处理(NLP)中语言模型与表征学习技术的统称。 概念上而言,它是指把一个维数为所有词的数量的高维空间嵌入到一个维数低得多的连续向量空间中,每个单词或词组被映射为实数域上的向量,这也是分布式表示:向量的每一维度都没有实际意义,而整体代表一个具体概念。

分布式表示相较于传统的独热编码(one-hot)表示具备更强的表示能力,而独热编码存在维度灾难和语义鸿沟(不能进行相似度计算)等问题。传统的分布式表示方法,如矩阵分解(SVD/LSA)、LDA等均是根据全局语料进行训练,是机器学习时代的产物。

PTMs也属于分布式表示的范畴,本文的PTMs主要介绍深度学习时代、自NNLM[2]以来的 “modern” 词嵌入。

三、PTMs有哪两大范式?对比不同的预训练编码器?

PTMs的发展经历从浅层的词嵌入到深层编码两个阶段,按照这两个主要的发展阶段,我们归纳出PTMs两大范式:「浅层词嵌入」和「预训练编码器」。

1、浅层词嵌入( Non-Contextual Embeddings)

浅层词嵌入,这一类PTMs范式是我们通常所说的“词向量”,其主要特点是学习到的是上下文独立的静态词嵌入,其主要代表为NNLM[2]、word2vec(CBOW[3]、Skip-Gram[3])、Glove[4]等。这一类词嵌入通常采取浅层网络进行训练,而应用于下游任务时,整个模型的其余部分仍需要从头开始学习。因此,对于这一范式的PTMs没有必要采取深层神经网络进行训练,采取浅层网络加速训练也可以产生好的词嵌入[3]。

浅层词嵌入的主要缺陷为:

  • 词嵌入与上下文无关,每个单词的嵌入向量始终是相同,因此不能解决一词多义的问题。

  • 通常会出现OOV问题,为了解决这个问题,相关文献提出了字符级表示或sub-word表示,如CharCNN[5] 、FastText[6] 和 Byte-Pair Encoding [7]。

在这里插入图片描述
图1给出了三种常见的浅层词嵌入之间的对比,Glove可以被看作是更换了目标函数和权重函数的全局word2vec。此外,相关文献也提出了句子和文档级别的嵌入方式,如 Skip-thought[8] 、Context2Vec[9] 等。

2、预训练编码器(Contextual Embeddings)

第二类PTMs范式为预训练编码器,主要目的是通过一个预训练的编码器能够输出上下文相关的词向量,解决一词多义的问题。这一类预训练编码器输出的向量称之为「上下文相关的词嵌入」。

在这里插入图片描述
图2给出了NLP各种编码器间的对比。PTMs中预训练编码器通常采用LSTM和Transformer(Transformer-XL),其中Transformer又依据其attention-mask方式分为Transformer-Encoder和Transformer-Decoder两部分。此外,Transformer也可看作是一种图神经网络GNN[10]。

这一类「预训练编码器」范式的PTMs主要代表有ELMO[11]、GPT-1[12]、BERT[13]、XLNet[14]等。

四、PTMs按照任务类型如何分类?

PTMs按照任务类型可分为2大类:监督学习 和无监督学习/自监督学习。
监督学习在NLP-PTMs中的主要代表就是CoVe[15],CoVe作为机器翻译的encoder部分可以应用于多种NLP下游任务。除了CoVe外,NLP中的绝大多数PTMs属于自监督学习。

自监督学习是无监督学习的一种方法[16],自监督学习[17]主要是利用辅助任务从大规模的无监督数据中挖掘自身的监督信息,通过这种构造的监督信息对网络进行训练,从而可以学习到对下游任务有价值的表征。因此,从“构造监督信息”这个角度来看,自监督也可看作是监督学习和无监督学习的一种融合[1]。严格地讲,从是否由人工标注来看,自监督学习属于无监督学习的范畴。

综合各种自监督学习的分类方式,笔者将NLP-PTMs在自监督学习中分为两种类型[16][17]:基于上下文(Context Based)和基于对比(Contrastive Based)。

1. 基于上下文(Context Based)

基于上下文的PTMs, 主要基于数据本身的上下文信息构造辅助任务,在NLP中我们通常引入语言模型作为训练目标。
PTMs中的语言模型主要分为三大类:
在这里插入图片描述

第一类:自回归语言模型(LM)

p ( x 1 : T ) = ∏ t = 1 T p ( x t ∣ x 0 : t − 1 ) p\left(x_{1: T}\right)=\prod_{t=1}^{T} p\left(x_{t} \mid x_{0: t-1}\right) p(x1:T)=t=1Tp(xtx0:t1)

  • 优点:
    • 语言模型(language model,LM)联合概率的无偏估计,即为传统的语言模型,考虑被预测单词之间的相关性,天然适合处理自然生成任务;
  • 缺点:
    • 联合概率按照文本序列顺序拆解(从左至右分解),无法获取双向上下文信息表征
  • 代表模型:ELMO、GPT-1、GPT-2[18]、ULMFiT[19]、SiATL[20]
第二类:自编码语言模型(DAE)

p ( x 1 : T ) ≈ ∑ t = 1 T m t log ⁡ p ( x t ∣ x ~ ) p\left(x_{1: T}\right) \approx \sum_{t=1}^{T} m_{t} \log p\left(x_{t} \mid \tilde{x}\right) p(x1:T)t=1Tmtlogp(xtx~)

  • 优点:

    • 本质为 降噪自编码(DAE)特征表示,通过引入噪声[MASK]构建MLM(Masked language model),获取双向上下文信息表征(本文将自编码语言模型统一称为DAE,旨在采用部分损坏的输入,旨在恢复原始的未失真输入);如果当前token被预测,则 m t = 1 m_t = 1 mt=1 否则 m t = 0 m_t = 0 mt=0 x ^ \mathbf{\hat{x}} x^ 为原始文本被替换后的输入。
  • 缺点:

    • 引入独立性假设,为语言模型联合概率的有偏估计,没有考虑预测token之间的相关性;
    • 预训练时的[MASK] 噪声在 finetune 阶段不会出现, 造成2阶段不匹配问题; 为解决这一问题,在 15%被预测的token中, 80% 被替换为 【MASK】,10%被随机替换,10%被替换为 原单词。
  • 代表模型: BERT、MASS、T5、RoBERTa、UniLM、XLM、SpanBERT、ERNIE-Baidu、E-BERT、BART、ERNIE-THU.

BERT[13]是自编码语言模型的一个典型代表,但其采用的MLM策略和Transformer-Encoder结构,导致其不适合直接处理生成任务。为了解决这一问题,也可采用基于Seq2Seq MLM方法:encoder部分采取masked策略,而decoder部分以自回归的方式预测encoder部分被mask的token。此外,还有很多基于自编码语言模型的PTMs提出了不同的MLM增强策略,称之为 Enhanced Masked Language Modeling (E-MLM) [1]。

第三类: 排列语言模型(PLM)

排列语言模型(Permuted Language Model, PLM)综合了 LM 和 DAE-LM两者的优点。 严格来讲, PLM和LM是标准的自回归语言模型(PLM是一种广义的自回归方法), 而 MLM 不是一个标准的语言模型, 其引入独立性假设, 隐式地学习预测token(mask部分本身的强相关性)之间的关系。 如果衡量序列中被建模的依赖关系的数量,标准的语言模型可以达到上界,不依赖于任何独立假设。 LM和PLM能够通过自回归方式来显式地学习预测token之间的关系。 然而,LM无法对双向上下文进行表征,借鉴NADE的思想,PLM将这种传统的自回归语言模型(LM)进行推广,将顺序拆解变为 随机拆解(从左至右分解),产生上下文相关的双向特征表示

PLM最为典型的代表就是: XLNet, 这是对于标准语言模型的一个复兴:提出了一个框架来连接标准语言模型建模方法和预训练方法。

一个关键问题:为什么PLM可以实现双向上下文的建模? PLM的本质就是语言模型联合概率的多种分解机制的体现, 其将LM的顺序拆解推广到随即拆解PLM没有改变原始文本序列的自然位置, 只是定义了 token的预测的顺序。 PLM只是针对语言模型不同排列下的因式分解排列,并不是词的位置信息的重排列。 【这块没有很懂,再看看】

基于上述三类语言模型的PTMs进行总结:
在这里插入图片描述

2. 基于对比(Contrastive Based)

基于对比(Contrastive Based),不同于 Context Based 主要基于数据本身的上下文信息构造辅助任务, Contrastive Based 主要利用样本之间的约束信息构造辅助任务,这类方法也是 Contrastive Learning(CTL)。 CTL假设观察到的文本对(正样本)在语义上比随机采样的样本(负样本)更相似。 CTL背后的原理是 在对比中学习。 相较于语言模型,CTL的计算复杂度更低,因而在预训练中是理想的替代训练标准。

CTL通过构建正样本(positive)和负样本(negetive),然后度量正负样本的距离来实现自监督学习:可以使用点积的方式构造距离函数,然后构造一个 softmax分类器,以正确分类正样本和负样本。 鼓励相似性度量函数将较大的值分配给正例,将较小的值分配给负例:
在这里插入图片描述

第一类: Deep InfoMax (DIM)

DIM 方法来源于CV领域,对于全局的特征(编码器最终的输出)和局部特征(编码器中间层的特征),DIM需要判断全局特征和局部特征是否来自同一图像[17]。

InfoWord [35]将DIM引入到NLP中,用Mutual Information的一个下界InfoNCE来重新解释BERT和XLNET的objective,并提出一个新的DIM objective以最大化一个句子的global representation和其中一个ngram的local representation之间的Mutual Information。

第二类:Replaced Token Detection (RTD)

噪声对比估计(Noise-Contrastive Estimation , NCE)通过训练一个额二元分类器来区分真实样本和假样本,可以很好的训练词嵌入。 RTD和NCE相同,根据上下文语境来预测token是否替换。

  • word2vec:中的 negative sampling 可看作RTD,负样本从词表中进行带权采样。
  • ELECTAR:提出了一种新的 预训练任务框架,构建生成器-判别器生成器通过MLM任务对被mask的token进行预测判别器判断原始句子中的每个 token是否被 replace 过生成器相当于对输入进行了筛选,是判别器的任务更难,从而学习到更好的表示。 生成器-判别器共享embedding,生成器部分采用 small-bert, 判别器对每一个token采用sigmod计算loss. finetune 阶段只采用 判别器部分。 RTD也被看作解决MLM中【MASK】在预训练和finetune间差异的一种手段。
  • WKLM:在实体level进行替换,替换为具有相同实体类型的实体名称。
第三类:Next Sentence Prediction(NSP)

NSP区分两个输入句子是否为 训练语料库中的连续片段, 第二个句子50%为第一句子的实际片段, 50%随机从其他语料随机选择。 NSP可以引导模型理解两个输入句子之间的关系,从而使对此信息敏感的下游任务收益,如 QA任务。 而 RoBERTa表明: NSP在对单个文档中的文本块进行训练时,去除NSP任务或在下游任务上可以稍微提高性能。

第四类:Sentence Order Prediction(SOP)

SOP使用同一文档中的两个连续片段作为正样本, 而相同的两个连续片段互换顺序作为负样本。 SOP融合了主题预测和相关性预测,主题预测更容易,这使得模型进行预测时仅依赖于主题学习。 与NSP不同的是, SOP使用同一文档中的两个连续段作为正样本,但顺序互换为负样本。 采取SOP任务的PTMs有ALBERT、StructBERT、BERTje.

对上述基于对比(Contrastive Based)的四类PTMs进行了总结:
在这里插入图片描述

五、PTMs有哪些拓展?

1. 引入知识

PTMs通常从通用大型文本语料库中学习通用语言表示,但是缺少特定领域的知识。PTMs中设计一些辅助的预训练任务,将外部知识库中的领域知识整合到PTMs中被证明是有效的[1]。

  • ERNIE-THU:将在知识图谱中预先训练的实体嵌入与文本中想应的实体提及相结合,以增强文本表示。 由于语言表征的预训练过程和知识表征的过程有很大的不同,会产生两个独立的向量空间。 为解决上述问题,在有实体输入的位置,将实体向量和文本表示通过非线性变换进行融合,以融合词汇、句法、语法和知识信息。

  • LIBERT:(语言知识的BERT)通过附加的语言约束任务整合了语言知识。

  • SentiLR[43]:集成了每个单词的情感极性,以将MLM扩展到标签感知MLM(LA-MLM),ABSA任务上都达到SOTA。

  • SenseBERT[44] :不仅能够预测被mask的token,还能预测它们在给定语境下的实际含义。使用英语词汇数据库 WordNet 作为标注参照系统,预测单词在语境中的实际含义,显著提升词汇消歧能力。

  • KnowBERT[45] :与实体链接模型以端到端的方式合并实体表示。

  • KG-BERT[46]显式输入三元组形式,采取两种方式进行预测构建三元组识别和关系分类,共同优化知识嵌入和语言建模目标。这些工作通过实体嵌入注入知识图的结构信息。

  • K-BERT[47]:将从KG提取的相关三元组显式地注入句子中,以获得BERT的扩展树形输入。

  • K-Adapte[48]:通过针对不同的预训练任务独立地训练不同的适配器来注入多种知识,从而可以不断地注入知识,以解决注入多种知识时可能会出现灾难性遗忘问题。

  • 此外,这类PTMs还有WKLM[38]、KEPLER[49]和[50]等。

2. 模型压缩

由于预训练的语言模型通常包含至少数亿个参数,因此很难将它们部署在现实应用程序中的在线服务和资源受限的设备上。模型压缩是减小模型尺寸并提高计算效率的有效方法。

5种PTMs的压缩方法为:

  • 剪枝(pruning): 将模型中影响较小的部分舍弃。

    • 如: Compressing BERT[51],还有结构化剪枝 LayerDrop [52],其在训练时进行Dropout,预测时再剪掉Layer,不像知识蒸馏需要提前固定student模型的尺寸大小。
  • quantization(量化):将高精度模型用低精度来表示;

    • Q-BERT[53]和Q8BERT[54],量化通常需要兼容的硬件
  • parameter sharing (参数共享):相似模型单元间的参数共享;

    • ALBERT[39]主要是通过矩阵分解跨层参数共享来做到对参数量的减少。
  • module replacing(模块替换):

    • BERT-of-Theseus[55]根据伯努利分布进行采样,决定使用原始的大模型模块还是小模型,只使用task loss
  • knowledge distillation (知识蒸馏):通过一些优化目标从大型、知识丰富、fixed的teacher模型学习一个小型的student模型。蒸馏机制主要分为3种类型:

    • 软标签蒸馏DistilBERT [56]、EnsembleBERT[57]
    • 其他知识蒸馏TinyBERT[58]、BERT-PKDMobileBERT[59] 、 MiniLM[60] 、DualTrain[61]
    • 蒸馏到其他结构Distilled-BiLSTM[62]
      在这里插入图片描述
3、多模态

随着PTMs在NLP领域的成功,许多研究者开始关注多模态领域的PTMs,主要为通用的视觉和语言特征编码表示而设计。多模态的PTMs在一些庞大的跨模式数据语料库(带有文字的语音、视频、图像)上进行了预训练,如带有文字的语音、视频、图像等,主要有 VideoBERT[63]、CBT[64] 、UniViLM[65]、 ViL-BERT[66] 、 LXMERT[67]、 VisualBERT [68]、 B2T2[69] 、Unicoder-VL[70] 、UNITER [71]、 VL-BERT[72] 、 SpeechBERT[73]。

4、领域预训练

大多数PTM都在诸如Wikipedia的通用语料中训练,而在领域化的特定场景会收到限制。如基于生物医学文本BioBERT[74],基于科学文本SciBERT[75],基于临床文本Clinical-BERT[76]。一些工作还尝试将PTMs适应目标领域的应用,如医疗实体标准化[77]、专利分类PatentBERT [78]、情感分析SentiLR[79]关键词提取[80]。

5、多语言和特定语言。

学习跨语言共享的多语言文本表示形式对于许多跨语言的NLP任务起着重要的作用。

  • Multilingual-BERT[81]在104种 Wikipedia文本上进行MLM训练(共享词表)每个训练样本都是单语言文档没有专门设计的跨语言目标也没有任何跨语言数据M-BERT也可以很好的执行跨语言任务。

  • XLM[25]通过融合跨语言任务(翻译语言模型)改进了M-BERT,该任务通过拼接平行语料句子对进行MLM训练。

  • Unicoder[82]提出了3种跨语言预训练任务

    • 1)cross-lingual word recovery
    • 2) cross-lingual paraphrase classification;
    • 3) cross-lingual masked language model.

虽然多语言的PTMs在跨语言上任务表现良好,但用单一语言训练的PTMs明显好于多语言的PTMs。此外一些单语言的PTMs被提出:BERT-wwm[83], ZEN[84], NEZHA[85] , ERNIE-Baidu[27][28], BERTje[86], CamemBERT[87], FlauBERT [88], RobBERT [89]。

六: 如何对PTMs进行迁移学习?

PTMs从大型语料库中获取通用语言知识,如何有效地将其知识适应下游任务是一个关键问题。迁移学习的方式主要有归纳迁移(顺序迁移学习、多任务学习)、领域自适应(转导迁移)、跨语言学习等。NLP中PTMs的迁移方式是顺序迁移学习

1、如何迁移?

1)选择合适的预训练任务:语言模型是PTM是最为流行的预训练任务;同的预训练任务有其自身的偏置,并且对不同的任务会产生不同的效果。例如,NSP任务可以使诸如问答(QA)和自然语言推论(NLI)之类的下游任务受益。

2)选择合适的模型架构:例如BERT采用的MLM策略和Transformer-Encoder结构,导致其不适合直接处理生成任务。

3)选择合适的数据:下游任务的数据应该近似于PTMs的预训练任务,现在已有有很多现成的PTMs可以方便地用于各种特定领域或特定语言的下游任务。

4)选择合适的layers进行transfer:主要包括Embedding迁移、top layer迁移和all layer迁移。如word2vec和Glove可采用Embedding迁移,BERT可采用top layer迁移,Elmo可采用all layer迁移。

5)特征集成还是fine-tune?对于特征集成预训练参数是freeze的,而fine-tune是unfreeze的。特征集成方式却需要特定任务的体系结构,fine-tune方法通常比特征提取方法更为通用和方便。

2、fine-tune策略:通过更好的微调策略进一步激发PTMs性能
  • 两阶段fine-tune策略:如第一阶段对中间任务或语料进行finetune,第二阶段再对目标任务fine-tune。第一阶段通常可根据特定任务的数据继续进行fine-tune预训练。

  • 多任务fine-tune:MTDNN[90]在多任务学习框架下对BERT进行了fine-tune,这表明多任务学习和预训练是互补的技术。

  • 采取额外的适配器:fine-tune的主要缺点是其参数效率低,每个下游任务都有自己的fine-tune参数。因此,更好的解决方案是在固定原始参数的同时,将一些可fine-tune的适配器注入PTMs。

  • 逐层阶段:逐渐冻结而不是同时对所有层进行fine-tune,也是一种有效的fine-tune策略。

七、PTMs还有哪些问题需要解决?

虽然 PTMs已经在很多 NLP 任务中显示出了他们强大的能力,然而由于语言的复杂性,仍存在诸多挑战。综述论文给出了五个未来 PTMs发展方向的建议。

1、PTMs的上限

目前,PTMs并没有达到其上限。大多数的PTMs可通过使用更长训练步长更大数据集来提升其性能。目前NLP中的SOTA也可通过加深模型层数来更进一步提升。这将导致更加高昂的训练成本。因此,一个更加务实的方向是在现有的软硬件基础上,设计出更高效的模型结构、自监督预训练任务、优化器和训练技巧等。例如, ELECTRA [37]就是此方向上很好的一个解决方案。

2、面向任务的预训练和模型压缩

在实践中,不同的目标任务需要 PTMs拥有不同功能。而 PTMs与下游目标任务间的差异通常在于两方面:模型架构数据分布。尽管较大的PTMs通常情况下会带来更好的性能表现,但在低计算资源下如何使用是一个实际问题。例如,对于 NLP 的 PTM 来说,对于模型压缩的研究只是个开始,Transformer 的全连接架构也使得模型压缩具有挑战性。

3、PTMs的架构设计

对于PTMs,Transformer 已经被证实是一个高效的架构。然而 Transformer 最大的局限在于其计算复杂度(输入序列长度的平方倍)。受限于 GPU 显存大小,目前大多数 PTM 无法处理超过 512 个 token 的序列长度。打破这一限制需要改进 Transformer 的结构设计,例如 Transformer-XL[92]。

4、finetune中的知识迁移

finetune是目前将 PTM 的知识转移至下游任务的主要方法,但效率却很低,每个下游任务都需要有特定的finetune参数。一个可以改进的解决方案是固定PTMs的原始参数,并为特定任务添加小型的finetune适配器,这样就可以使用共享的PTMs 服务于多个下游任务。

5、PTMs 的解释性与可靠性

PTMs 的可解释性与可靠性仍然需要从各个方面去探索,它能够帮助我们理解 PTM 的工作机制,为更好的使用及性能改进提供指引。

  1. 本文定义了PTMs两大范式:浅层词嵌入和预训练编码器。不同于原文,XLNet在原综述论文中被归为Transformer-Encoder,本文认为将其归为Transformer-XL更合适。

  2. 本文PTMs按照自监督学习的分类不同于原文。本文按照 基于上下文(Context Based)和基于对比(Contrastive Based)两种方式归类;将原文的LM、MLM、DAE、PLM归为Context Based;

  3. 本文将原文MLM和DAE统一为DAE

  4. 其他:

    • 在3.1.2的E-MLM段落中,可以将StructBERT拿出来,只放在SOP;
    • 2)3.1.5对ELECTRA的描述,应采取ELECTRA原文中的主要方法(参数共享),两阶段的方法只是一种实验尝试;
    • 3)在puring部分可以补充LayerDrop;
    • 4)应将UniLM归为MLM;;

上述作者娄杰补充1-nlp中的预训练语言模型总结(单向模型、BERT系列模型、XLNet)

补充2-nlp中的词向量对比:word2vec/glove/fastText/elmo/GPT/bert



复旦邱锡鹏超全NLP预训练模型综述论文:两张图带你梳理完整脉络


transformer ⭐你应该知道的 transformer


12个NLP预训练模型的学习笔记


BERT 瘦身之路:Distillation,Quantization,Pruning


ALBERT真的瘦身成功了吗?


后BERT时代:15个预训练模型对比分析与关键点探索(附链接)


多个单独文章解读连接- 预训练语言模型关系图+必读论文列表,清华荣誉出品

在这里插入图片描述

老宋的茶书会-Bert 改进: 如何融入知识

阿里-非常详细的transformer笔记,包括XLNet, MT-DNN, ERNIE, ERNIE2, RoBERTa

其他整理、文章笔记

* 1.文章解读-【华为诺亚新论文】基于图上下文知识融入的预训练语言模型

在这里插入图片描述

* 2.Graph-Bert

* 3.多篇文章前瞻-最新必读【预训练语言模型(BERT/XLNet等)】论文,Google/微软/华为ICLR2020提交论文

* 4.mask角度-从语言模型到Seq2Seq:Transformer如戏,全靠Mask

* 5.带你读论文丨8篇论文梳理BERT相关模型进展与反思

在这里插入图片描述

完全图解GPT-2:看完这篇就够了(二)
BERT及RoBERTa论文笔记

三、BERT等应用

KB-当BERT遇上知识图谱


四、词向量

nlp中的词向量对比:word2vec/glove/fastText/elmo/GPT/bert

nlp中的预训练语言模型总结(单向模型、BERT系列模型、XLNet)


五、自己进一步梳理

Attention 的前世今生(原理、公式、变种、实现)

在这里插入图片描述

Bert解读

Bert变种整理

Bert等应用整理

Bert等使用教程整理

  • 5
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值