语言模型是一系列单词的概率分布,其完成了从word到word embedding的映射。
构建语言模型的基本方法有两类,分别是基于频率统计和基于预测。
基于频率估计的主要方法是GloVe,它通过构建词向量(word embedding)和共现矩阵(Co-ocurrence Maxtrix)之间的近似关系,经过训练最终获得word embedding的表示。
基于预测的主要方法是word2vec,具体方法有Skip-gram和CBOW。这两种方法都是基于神经网络进行预测,Skip-gram是根据一个单词预测上下文,CBOW是根据上下文预测单词。