语言模型

语言模型就是用来计算一个句子的概率,也就是判断一句话是否是人话的概率。

语言模型计算

给定句子(词语序列): S = W 1 , W 2 , W 3 . . . W k S = W_1,W_2, W_3...W_k S=W1,W2,W3...Wk
它的概率为: P ( S ) = P ( W 1 , W 2 , . . W k ) = p ( W 1 ) P ( W 2 ∣ W 1 ) . . p ( W k ∣ W 1 , W 2 . . . . W k − 1 ) P(S) = P(W_1,W_2,..W_k) = p(W_1)P(W_2|W_1)..p(W_k|W_1,W_2....W_{k-1}) P(S)=P(W1,W2,..Wk)=p(W1)P(W2W1)..p(WkW1,W2....Wk1)

该方法的缺陷

  • 1 参数空间过大: 条件概率 p ( w n ∣ w 1 , w 2 . . w n − 1 ) p(w_n|w_1,w_2..w_{n-1}) p(wnw1,w2..wn1) 的可能性太多,无法估算。
  • 2 数据稀疏严重:对于非常多词对组合,在语料库中都没有出现,根据最大似然估计概率为0

为了解决这个问题,从而引出马尔科夫假设

马尔科夫假设

假设: 随意一个词出现的概率只与它前面出现的有限个词有关。
基于马儿科夫假设,产生了一元语言模型,和N元语言模型(一般是二元和三元,高于四元的用的非常少 因为训练需要语料庞大,数据稀疏,时间复杂度高,但是精度提高并不多)

  • 一元语言模型 unigram: 假设一个词的出现与周围的词无关,词与词之间是独立的。即:
    p ( s ) = p ( w 1 ) p ( w 2 ) . . . . p ( w n ) p(s) = p(w_1)p(w_2)....p(w_n) p(s)=p(w1)p(w2)....p(wn)

  • 二元语言模型 bigram: 假设一个词的出现只与它前面出现的一个词有关。即
    p ( s ) = p ( w 1 ) p ( w 2 ∣ w 1 ) p ( w 3 ∣ w 2 ) . . p ( w n ∣ w n − 1 ) p(s) = p(w_1)p(w_2|w_1)p(w_3|w_2)..p(w_n|w_{n-1}) p(s)=p(w1)p(w2w1)p(w3w2)..p(wnwn1)

  • 三元语言模型 trigram: 假设一个词的出现只与它前面出现的两个词有关。即
    p ( s ) = p ( w 1 ) p ( w 2 ∣ w 1 ) p ( w 3 ∣ w 1 , w 2 ) . . . p ( w n ∣ w n − 1 , w n − 2 ) p(s) = p(w_1)p(w_2|w_1)p(w_3|w_1,w_2)...p(w_n|w_{n-1},w_{n-2}) p(s)=p(w1)p(w2w1)p(w3w1,w2)...p(wnwn1,wn2)

参考: https://zhuanlan.zhihu.com/p/28080127

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值