语言模型的发展历程
一般来说,语言模型旨在对于人类语言的内在规律进行建模,从而准确预测词序列中未来(或缺失)词或词元(Token)的概率。根据所采用技术方法的不同,针对语言模型的研究工作可以分为以下四个主要发展阶段:
统计语言模型(Statistical Language Model, SLM),在 20 世纪 90 年代兴起的统计语言模型是基于统计学习方法研发的。具体来说,统计语言模型使用马尔可夫假设(Markov Assumption)来建立语言序列的预测模型,通常是根据词序列中若干个连续的上下文单词来预测下一个词的出现概率,即根据一个固定长度的前缀来预测目标单词。具有固定上下文长度 𝑛 的统计语言模型通常被称为 𝑛 元(𝑛-gram)语言模型,如二元或三元语言模型。统计语言模型被广泛应用于信息检索(Information Retrieval, IR)和自然语言处理(Natural Language Processing, NLP)等领域的早期研究工作。对于高阶统计语言模型来说,随着阶数 𝑛 的增加,需要估计的转移概率项数将会指数级增长,经常会受到“维数灾难”(Curse of Dimensionality)的困扰。为了缓解数据稀疏问题,需要设计专门的语言模型平滑策略,如回退估计(Back-off Estimation)和古德-图灵估计(Good-Turing Estimation)。然而平滑方法对于高阶上下文的刻画能力仍然较弱,无法精确建模复杂的高阶语义关系。
神经