TensorFlow深度学习实战——基于语言模型的动态词嵌入技术
0. 前言
基于语言模型的词嵌入技术,通过利用上下文信息来生成动态的词向量,大大提升了词嵌入模型的表达能力。随着 BERT
、GPT
等大规模预训练模型的出现,基于语言模型的词嵌入在自然语言处理领域的应用变得越来越广泛,成为当前自然语言处理 (Natural Language Processing
, NLP
) 研究的一个重要方向。
1. 基于语言模型的词嵌入
语言模型是基于单词序列的概率分布,可以用于根据特定的单词序列预测最可能的下一个单词。与传统的词嵌入(无论是静态前软还是动态嵌入)类似,语言模型也会被训练在给定语料库中部分句子的情况下预测下一个单词(或者在双向语言模型中也可以预测前一个单词)。训练过程不涉及手动标签标注,因为它利用了大量文本的自然语法结构,所以在某种意义上,这是一种自监督学习过程。
语言模型作为词嵌入与传统嵌入的主要区别在于,传统嵌入应用为数据上的单一初始转换,然后针对特定任务进行微调。而语言模型是在大型外部语料库上训练的,并且代表了某种特定语言(如中文或英文)的模型。这一步骤称为预训练,预训练语言模型的计算成本通常相当高,下一步是为特