N-gram模型的训练以及应用

本文详细介绍了N-gram模型的训练过程和应用,包括语言模型、极大似然估计、马尔科夫假设以及N-gram模型在机器翻译、语音识别等领域的应用。通过实例展示了如何利用极大似然估计训练3-gram模型,并给出了Go语言实现的文字预测应用。
摘要由CSDN通过智能技术生成

语言模型

语言模型在实际应用中可以解决非常多的问题,例如判断一个句子的质量:

  • the house is big ! good
  • house big is the ! bad
  • the house is xxl ! worse

可以用于词的排序,比如the house is small优于small the is house;可以用于词的选择,I am going ___ (home/house),其中I am going home优于I am going house,除此之外,还有许多其他用途:

  • 语音识别
  • 机器翻译
  • 字符识别
  • 手写字体识别

概率语言模型

假设词串 W = w 1 , w 2 , . . . , w n W=w_{1},w_{2},...,w_{n} W=w1,w2,...,wn,以p(W)表示该词串可能出现的概率,那么从概率的角度上,
p ( W ) = p ( w 1 , w 2 , . . . , w n ) p(W)=p(w_{1},w_{2},...,w_{n}) p(W)=p(w1,w2,...,wn)
要计算p(W),根据链式法则有:
p ( W ) = p ( w 1 ) p ( w 2 ∣ w 1 ) . . . p ( w n ∣ w 1 , w 2 , . . . , w n − 1 ) p(W)=p(w_{1})p(w_{2}|w_{1})...p(w_{n}|w_{1},w_{2},...,w_{n-1}) p(W)=p(w1)p(w2w1)...p(wnw1,w2,...,wn1)
其中 w 1 , w 2 , . . . , w i − 1 w_{1},w_{2},...,w_{i-1} w1,w2,...,wi1为第i个词的历史词。
例句:likely connects audiences with content
p ( l i k e l y   c o n n e c t s   a u d i e n c e s   w i t h   c o n t e n t ) = p ( l i k e l y ∣ s e n t e n c e   s t a r t ) × p ( c o n n e c t s ∣ l i k e l y ) × p ( a u d i e n c e s ∣ l i k e l y , c o n n e c t s ) × p ( w i t h ∣ l i k e l y , c o n n e c t s , a u d i e n c e ) × p ( c o n t e n t ∣ l i k e l y , c o n n e c t s , a u d i e n c e , w i t h ) p(likely\,connects\,audiences\,with\,content)\\=p(likely|sentence\,start)\\\times p(connects|likely)\\\times p(audiences|likely,connects)\\\times p(with|likely,connects,audience)\\\times p(content|likely, connects, audience, with) p(likelyconnectsaudienceswithcontent)=

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值