语言概率模型和Word2Vec简述

本文简述了概率语言模型,重点介绍了n-gram模型及其优缺点,并深入探讨了连续空间语言模型,如NNLM、LBL和C&W模型。此外,文章还提及了RNN语言模型和Word2Vec,包括CBOW、霍夫曼树优化及负采样技术。最后总结了语言模型的历史和Word2Vec的重要性。
摘要由CSDN通过智能技术生成

1、 概率语言模型

一句话的概率公式:

根据一句话中的前文预测下一个词:

根据链式概率法则:


根据马尔科夫假设,当前词只和前n个词有关系:



2. 大名鼎鼎的 n-gram模型


为模型想要预测的下一个词,为句子中的历史词语。

之后,我们利用极大似然估计优化模型:

说起来极大似然很高级,在实现上就是统计各种情况下出现的次数,然后再除以因子来归一化。

n-gram的优点:

1. 常见的Bigram,Trgram 实现简单,能够很好地应用在一些经典场景中,例如检查拼写错误(极大似然句子概率)。

2. 常见搜索引擎的输入下拉帮助,就是通过n-gram来实现的。

3. 可解释性强,易于理解和调试。

4. 易于增量实现和并行训练。

n-gram的缺点:

1. 需要解决数据稀疏性的问题ÿ

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值