BERT 预训练
NLP 里的迁移学习
-
在计算机视觉中比较流行,将 ImageNet 或者更大的数据集上预训练好的模型应用到其他任务中,比如小数据的预测、图片分类或者是目标检测
-
使用预训练好的模型(例如 word2vec 或语言模型)来抽取词、句子的特征
-
做迁移学习的时候,一般不更新预训练好的模型
-
在更换任务之后,还是需要构建新的网络来抓取新任务需要的信息
- 使用预训练好的模型来抽取特征的时候,一般得到的是一些比较底层的特征,很多时候只是当成一个 embedding 层来使用,还是需要设计一个比较复杂的模型
- word2vec 忽略了时序信息
- 语言模型只看一个方向,而且训练的模型不是很大(RNN 处理不了很长的序列,因为它只能看到很短的一部分)
BERT
- BERT 是芝麻街中一个人物的名字,芝麻街是美国一个针对小朋友启蒙的节目
- BERT 结合了 ELMo 对上下文进行双向编码以及 GPT 任务无关这两方面的优点,对上下文进行双向编码,并且对于大多数的自然语言处理任务只需要最少的架构改变