NLP:预训练+转移学习

# pre-trained 

    目前神经网络在进行训练的时候基本都是基于后向传播(BP)算法,通过对网络模型参数进行随机初始化,然后通过BP算法利用例如SGD这样的优化算法去优化模型参数。那么预训练的思想就是,该模型的参数不再是随机初始化,而是先有一个任务进行训练得到一套模型参数,然后用这套参数对模型进行初始化,再进行训练。可以看成是第一层word embedding进行了预训练,此外在基于神经网络的迁移学习中也大量用到了这个思想 [来源]

# Transfer Learning 

    迁移学习(Transfer learning) 是把已训练好的模型(预训练模型)参数迁移到新的模型来帮助新模型训练。考虑到大部分数据或任务都是存在相关性的,所以通过迁移学习我们可以将已经学到的模型参数(也可理解为模型学到的知识)通过某种方式来分享给新模型从而加快并优化模型的学习效率不用像大多数网络那样从零学习 [来源]

# History

    以情感分析(属于监督学习 supervised learning)为例,探究一直以来是如何解决该NLP任务的?

  • 2013年

Sentiment Analysis Model

  1️⃣ randomly initialize the model params W_h W_e W_o c_1 c_2 ...c_{|v|}这些参数都是从头开始学习,模型需要从少量的标注数据集中学习语言的运作方式

  2️⃣ update all params by backprop using cross entropy loss from labeled training set

  • 2014 ~ 2017 年

    Why train everything from scratch (从头开始)?

    How can we leverage lots of unlabeled data?

Sentiment Analysis Model

    we can pretrain the c_1 c_2 ...c_{|v|} (word embeddings) using another objective that takes advantage of unlabeled data (self-supervised)  衍生出的技术如 Word2Vec、Glove

   1️⃣ instead of starting with a random word embedding space, we start from a pretrained space in which word embs. capture some linguistic prop.  

   2️⃣ train all other params from scratch(W_h W_e W_o

    预训练语言模型的开山之作,由Google的两位作者Andrew M. Dai和Quoc V. Le于2015年发表的📃《Semi-supervised Sequence Learning》📃。

    本文主要使用无标签的数据(即普通的文本)和RNN进行了两种尝试,实际上是通过两种不同训练目标来预训练了LSTM。第一种是训练模型去预测一句句子里下一个词是什么,这是一种典型的语言模型训练方法;第二种是训练模型成为一个自编码器(autoencoder),用于将句子映射成向量后重建原来的句子

  • 一种是用最基础的语言模型(language models, LM-LSTM),输入上一个词预测下一个词,就相当于下面的没有encoder一样。

  •  另一种是用seq2seq自编码模型(sequence autoencoder, SA-LSTM),encoder输入为这个WXYZ,decoder输出为依然为WXYZ,和普通的seq2seq模型相比不同的是,这里的encoder和decoder隐层是共享的。

    这两种无监督训练得到的参数可以作为接下来有监督学习的模型的起始点,他们发现这样做了以后,可以使后续模型更稳定,泛化得更好,并且经过更少的训练,就能在很多分类任务上得到很不错的结果。

    本文的核心倒不是模型架构本身,而是一种预训练的思路。该思路就是,利用无标签数据先训练模型(非监督学习un-supervised),由此得到的参数,作为下一阶段模型训练的初始化参数(监督学习supervised)。因此,本文取名半监督学习(semi-supervised)[来源]

📃《Unsupervised Pretraining for Sequence to Sequence Learning》📃(2017)

    这篇文章是在2017年ICLR会议上由Google Brain团队Prajit Ramachandran 、Peter J. Liu、Quoc V. Le共同发表的,与上面介绍的Google 2015年发表的 Semi-supervised Sequence Learning 可谓一脉相承。本文描述了一种通用的非监督预训练方法,提升了seq2seq模型的准确性。作者用两个语言模型的预训练权重分别初始化了seq2seq模型的encoder 与decoder,然后再用监督数据对模型进行finetune,这种做法在机器翻译和概要提取任务上大大超过了以前的纯监督模型,证明了预训练的过程直接提高了seq2seq模型的泛化能力,再次提出了预训练的重要性和通用性。这篇文章最大的贡献是证明了在大量无监督数据上预训练语言模型,并在少量有监督数据上finetune这个思路对seq2seq模型同样具有效性 [来源]

  • 2018年

    存在的问题:

    1️⃣ word embs. are static, only one vector per word type regardless of context.

    2️⃣ the rest of the model (in our case, the RNN) is responsible for learning composition from scratch given just labeled data

    what if we use the hidden states of a NLM instead of static word embeddings?

Natural Language Model
每个时刻 t 的隐藏状态里编码了当前与之前词汇的信息,离得越近的词汇在向量里占的比重更大,这些向量比起之前的static word embs更蕴含了上下文信息

    将NLM中学习到的hidden states 作为初始词向量应用到情感分析,即Contextualized Vector

    👉 为了更好的学习上下文,通常是 Left-to-Right 和 Right-to-Left 双向编码

Sentiment Analysis Model

     ELMo就是这么做的。使用了分离的两个LMs:一个Left-to-Right,一个Right-to-Left,将结果concatenate形成一个Contextual Embedding

  • 2019年

    Can we share more params than just the word embeddings? what about W_h W_e

NLM

    Initialize my sentiment RNN with the LMs W_h W_e c_1 c_2 ...c_{|v|} ,all we have to do is learn W_o from scratch, all the other params are transferred. 

Sentiment Analysis Model

    This is current paradigm(范式) in NLP, popularized by BERT model.

    We init our sentiment model with a pretrained NLM, and then backprop the error from a different task (downstream task) into these params. This is called fine-tuning

# ELMo(2018.2)

    📃Deep Contextualized Word Representations📃作者认为一个预训练的词表示应该能够包含丰富的句法和语义信息,并且能够对多义词进行建模。而传统的词向量(例如word2vec)是上下文无关的,无法对一词多义进行建模。所以他们利用语言模型来获得一个上下文相关的预训练表示,称为ELMo (Embeddings from Language Model)

    在ELMo中,他们使用的是一个双向的LSTM语言模型,由一个前向和一个后向语言模型构成,目标函数就是取这两个方向语言模型的最大似然。

    先在大语料上以 Language Model为目标训练出 Bidirectional LSTM模型,然后利用LSTM产生词语的表征。为了应用在下游的NLP任务中,一般先利用下游任务的语料库(注意这里忽略掉label)进行language model的微调,这种微调相当于一种domain transfer,然后才利用label的信息进行supervised learning。

    ELMo的语言模型经过权衡了模型性能、大小、以及所需算力定为两层双向LSTM,每层4096个units,512维projections。

    ELMo表征是“深”的,就是说它们是biLM的所有层的内部表征的函数。这样做的好处是能够产生丰富的词语表征。高层(第二层)的LSTM的状态可以捕捉词语意义中和语境相关的那方面的特征(比如可以用来做语义的消歧),而低层(第一层)的LSTM可以找到语法方面的特征(比如可以做词性标注)。如果把它们结合在一起,在下游的NLP任务中会体现优势。(😶 最简单的也可以使用最高层的表示,但论文的实验结果表明:使用所有层的效果要比只使用最后一层作为ELMo的效果要好。

    论文揭示了,预训练语言模型能生成深层特征是关键,下游任务可以混合不同层的半监督语义信号,来提高自己的效果。

    📍 当有多个hidden state时,如何选择?

    然后进行有监督的NLP任务时,可以将ELMo直接当做特征拼接到具体任务模型的词向量输入或者是模型的最高层表示上(在输入还是输出上面加ELMo效果好的问题上,并没有定论,不同的任务可能效果不一样。

ELMo的使用流程主要如下:

1️⃣ 首先,在较大的语料库中预训练biLM模型,使用两层Bi-LSTM,并使用残差连接,作者提出,低层(第一层)的Bi-LSTM能获取语料中的句法信息,而高层(第二层)能获取语料中的语义信息。

2️⃣ 其次,在我们任务的语料中(忽略标签的)fine tuning 微调预训练好的biLM模型,称为domain transfer。

3️⃣ 最后,在具体的任务中,我们使用ELMo输出的词嵌入作为下游任务的输入,也可以作为下游任务的输出层。

# Open AI GPT(2018)

    GPT:Generative Pre-Training

    📃Improving Language Understanding by Generative Pre-Training📃这篇论文的亮点主要在于,他们利用了Transformer网络代替了LSTM作为语言模型来更好的捕获长距离语言结构。然后在进行具体任务有监督微调时使用了语言模型作为附属任务训练目标。

    在语言模型网络上他们使用了google团队在《Attention is all your need》论文中提出的Transformer解码器作为语言模型。在具体NLP任务有监督微调时,与ELMo当成特征的做法不同,OpenAI GPT不需要再重新对任务构建新的模型结构,而是直接在transformer这个语言模型上的最后一层接上softmax作为任务输出层,然后再对这整个模型进行微调。如果使用语言模型作为辅助任务,能够提升有监督模型的泛化能力,并且能够加速收敛👉[链接]

    目前将预训练的语言模型应用到NLP任务主要有两种策略,一种是基于特征的语言模型,如ELMo模型;另一种是基于微调的语言模型,如OpenAI GPT。

    GPT采用了Pre-training(预训练)和Fine-tuning(微调)的训练方法,目标是学习一种通用的表示形式,该表示形式几乎不需要怎么调整就可以适用于各种NLP下游任务。

    首先,对未标记的数据建立语言模型,学习神经网络模型的初始参数。随后,使用相应的有监督的方式将这些参数调整为NLP下游任务所需要。即整个训练过程包括两个阶段,第一阶段是在大型语料库上使用无监督的方式训练随后是微调阶段,使用的是当前任务的有监督数据。

    由于不同NLP任务的输入有所不同,在transformer模型的输入上针对不同NLP任务也有所不同。具体如下图,1️⃣ 对于分类任务直接将文本输入即可;2️⃣ 对于文本蕴涵任务,需要将前提和假设用一个Delim分割向量拼接后进行输入;3️⃣ 对于文本相似度任务,在两个方向上都使用Delim拼接后,进行输入;4️⃣ 对于像问答多选择的任务,就是将每个答案和上下文进行拼接进行输入。

    在四种类型的语言理解任务上评估该方法,分别是:自然语言推理,问题回答,语义相似性和文本分类任务。在12个子任务中有9个达到了当时的最先进水平(state of the art)。

# BERT(2018.10)

    📃BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding📃BERT (Bidirectional Encoder Representations from Transformer) 是使用Transformer编码器来作为语言模型,在语言模型预训练的时候,提出了两个新的目标任务:

  1️⃣ 遮挡语言模型Masked Language Model

  - given a full sequence of words(not just prefix) where x%(通常为15%) of the words have benn masked out     

   - instead of predicting the next word, we only predict masked words

  2️⃣ 预测下一个句子Next Sentence Prediction

    BERT为了让下游的问答(QA)和自然语言推理(NLI)任务能够进行,增加了另一个预训练任务,在 BERT 的训练过程中,模型将两个句子为一对作为输入,预测第二个句子是否在原始文档中是第一句的后续句子。

    在实际预训练过程中,文章作者从文本语料库中随机选择50%正确语句对和50%错误语句对进行训练,与Masked LM任务相结合,让模型能够更准确地刻画语句乃至篇章层面的语义信息。

    在语言模型上,BERT使用的是Transformer编码器,并且设计了一个小一点的Base结构和一个更大的Large网络结构。

    BERT本质上是一个训练好的Transformer Encoder堆栈。Base 版本有12层,Large版本有24层。它们也比初始论文里的Transformer的默认配置(6个编码器层,512个隐藏单元,8个attention heads)有更大的前馈网络(分别为768个和1024个隐藏单元), attention heads(分别为12个和16个)。 

    在论文中他们训练base版本需要在16个TGPU上,large版本需要在64个TPU上训练4天,对于一般条件,一个GPU训练的话,得用上1年。

    对比一下三种语言模型结构,BERT使用的是Transformer编码器,由于self-attention机制,所以模型上下层直接全部互相连接的。而OpenAI GPT使用的是Transformer解码器,它是一个需要从左到右的受限制的Transformer,而ELMo使用的是双向LSTM,虽然是双向的,但是也只是在两个单向的LSTM的最高层进行简单的拼接。所以作者们认为只有BERT是真正在模型所有层中是双向的。

    在之前,我们提到过ELMo,虽然都说是“双向”的,但目标函数其实是不同的。ELMo是分别以
P(w_i|w_1,...,w_{i-1})P(w_i|w_{i+1},...,w_{n})作为目标函数,训练后拼接在一起,而BERT则是以
P(w_i|w_1,...,w_{i-1},w_{i+1},...,w_n)直接作为目标函数训练,所以可以理解为BERT是真正的双向!

     而在模型的输入方面,BERT做了更多的细节。将英文词汇作进一步切割,划分为更细粒度的语义单位(WordPiece),例如:将playing分割为play和##ing,并加入了位置向量和句子切分向量。并在每一个文本输入前加入了一个CLS向量。

    对于不同的NLP任务,模型输入会有微调,对模型输出的利用也有差异。

  •  单文本分类任务:对于文本分类任务,BERT模型在文本前插入一个[CLS]符号,并将该符号对应的输出向量作为整篇文本的语义表示,用于文本分类。这个无明显语义信息的符号会更“公平”地融合文本中各个字/词的语义信息。

  • 语句对分类任务:该任务的实际应用场景包括:问答(判断一个问题与一个答案是否匹配)、语句匹配(两句话是否表达同一个意思)等。对于该任务,BERT模型除了添加[CLS]符号并将对应的输出作为文本的语义表示,还对输入的两句话用一个[SEP]符号作分割,并分别对两句话附加两个不同的文本向量以作区分

  •  序列标注任务:该任务的实际应用场景包括:中文分词&新词发现(标注每个字是词的首字、中间字或末字)、答案抽取(答案的起止位置)等。对于该任务,BERT模型利用文本中每个字对应的输出向量对该字进行标注(分类),如下图所示(B、I、E分别表示一个词的第一个字、中间字和最后一个字)。

  ## Masked LM Problem

    文章作者在一句话中随机选择15%的词汇用于预测。对于在原句中被抹去的词汇,80%情况下采用一个特殊符号[MASK]替换,10%情况下采用一个任意词替换,剩余10%情况下保持原词汇不变。这么做的主要原因是:在后续微调任务中语句中并不会出现[MASK]标记,而且这么做的另一个好处是:预测一个词汇时,模型并不知道输入对应位置的词汇是否为正确的词汇(10%概率),这就迫使模型更多地依赖于上下文信息去预测词汇,并且赋予了模型一定的纠错能力。

例如对于“my doy is hairy”这句话:

  • 有80%的概率用[MASK]标记来替换,替换后:“my dog is [MASK]"

  • 有10%的概率用随机的一个单词(token)来替换,替换后:“my doy is apple”

  • 有10%的概率不做替换,仍然为:“my doy is hairy”

## From  ELMo(2018.2) To BERT(2018.10)

    the ELMo approach of two separate LMs that are then concat together is a little hacky...

    - can we accomplish the same goal within a single model

    - change pretraining objective:from LM to masked LMs

    📍 2 unidirectional LMs 💨 1 masked LM

    📍 recurrent models 💨 Transformers

    📍 BERT was pretrained on a lot more data

ELMo 通过读人上文来预测当前单词的方式为词嵌入引入了上下文信息,而Google的BERT模型则通过一种高效的双向 Transformer 网络同时对上文和下文建模。

# GPT-2(2019)

    在论文📃Language Models are Unsupervised Multitask Learners📃中,GPT-2被OpenAI提出,可以认为GPT-2是GPT的升级版!

    GPT-2在GPT的基础上,有以下几个大变化:

  1️⃣ 使用的训练数据更多、更高质量、更宽泛

    找了800万互联网网页作为语言模型的训练数据,在论文中称为WebText,网页中的内容宽泛,训练的模型通用性好,这数据大概有40GB。

  2️⃣ 使用的模型参数更多

    GPT-2训练了四种不同大小的模型,其中 BERT-baseGPT-2 SMALL 大小相似;BERT-largeGPT-2 MEDIUM 的大小相似。

ParametersLayersd_{model}
GPT-2 SMALL117M12768
GPT-2 MEDIUM345M241024
GPT-2 LARGE762M361280
GPT-2 EXTRA LARGE1542M481600

    GPT是单向的,而BERT是双向的,GPT-2依然维持GPT单向的特点,似乎是要证明即使是单向的,我参数多,训练数据量大,也不比双向的差!作者直接将这个通过大量数据预训练的模型,不微调的跑了各个下游的NLP任务。试想一下,如果是BERT有GPT-2最大参数量模型的大小,配合BERT的真正双向,通过预训练+微调的方法,效果应该是很好的!

# GPT-3(2020.5)

    📃《Language Models are Few-Shot Learners》📃

    目前最先进的模型。通过更大的数据、更多的参数进行语言模型训练(从左到右),不需要进行微调。通过对任务进行描述,提供(few shot)/不提供(No-shot)相应的案例,模型即可生成文字返回。 

 # 参考

1️⃣ 自然语言处理中的语言模型预训练方法(ELMo、GPT和BERT)

2️⃣ 图解2018年领先的两大NLP模型:BERT和ELMo

3️⃣ Bert输入输出是什么

4️⃣ 从零开始学Python自然语言处理(29)—— 根据场景变换的ELMo

5️⃣ 从零开始学Python自然语言处理(30)—— 这两年的NLP顶流BERT

6️⃣ 从零开始学Python自然语言处理(31)—— 自动写文章的GPT-2

7️⃣ 从零开始学Python自然语言处理(30)—— 宣传没做好的GPT

8️⃣ 【NLP论文笔记】Semi-supervised Sequence Learning

9️⃣ 预训练语言模型的专题系列分享 ⭐

ELMO:https://arxiv.org/abs/1802.05365

BERT:https://arxiv.org/abs/1810.04805

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值