N-gram

定义

n元语法(英语:n-gram)指文本中连续出现的n个语词。n元语法模型是基于(n-1)阶马尔可夫链的一种概率语言模型,通过n个语词出现的概率来推断语句的结构。
例如:对于to be or not to be

n-gramsequence
一元语法to, be, or, not, to, be
二元语法to be, be or, or not, not to, to be
三元语法to be or, be or not, or not to, not to be

通过概率来推断接下来的词语:
Please turn your homework ___
可能填in、over 而不可能填 refrigerator、the

所以,n-gram 模型就是当知道前面单词之后,为n元语法的最后一个字设置合适的概率。

BiGram

p ( w n ∣ w n − 1 ) p(w_n|w_{n-1}) p(wnwn1)近似的表示 p ( w n ∣ w 1 n − 1 ) p(w_n|w_1^{n-1}) p(wnw1n1),如P(the|that) ≈ \approx P(the|Walden Pond’s water is so transparent that)
这个模型也叫Markov模型。
由此我们可以得出,trigram是向前看2个单词,n-gram是向前看n-1个单词,这就是为什么该模型是基于(n-1)阶马尔可夫链的一种概率语言模型。
为了计算 p ( w n ∣ w n − 1 ) p(w_n|w_{n-1}) p(wnwn1),我们需要在语料库中统计二元语法 C ( x n − 1 x n ) C(x_{n-1}x_{n}) C(xn1xn) ∑ w C ( w n − 1 w ) \sum_w{C(w_{n-1}w)} wC(wn1w),所以 p ( w n ∣ w n − 1 ) = C ( x n − 1 x n ) ∑ w C ( w n − 1 w ) p(w_n|w_{n-1})=\frac{C(x_{n-1}x_{n})}{\sum_w{C(w_{n-1}w)}} p(wnwn1)=wC(wn1w)C(xn1xn),其中w是任意一个字。以此类推,得出通用公式如下:
在这里插入图片描述

  • 在实际使用中,trigram和4-gram是比较常用的。
  • 通常对概率取log,防止下溢

语言模型工具(toolkits)

语言模型评估

extrinsic evaluation(外部估计)

将语言模型嵌入程序,查看程序的性能提升,代价高

intrinsic evaluation (内部估计)

不需要嵌入任何应用的估计,用训练集训练,测试集测试性能。

perplexity

在评估语言模型的时候,我们通常不使用朴素的联合概率,而是使用perplexity(pp).
p p ( w ) = p ( w 1 w 2 . . . w n ) − 1 n pp(w)=p(w_1w_2...w_n)^{-\frac{1}{n}} pp(w)=p(w1w2...wn)n1

等价于在这里插入图片描述
用BiGram就近似于
在这里插入图片描述
perplexity越小越好。

参考

  1. https://blog.csdn.net/kunpen8944/article/details/83049405
  2. https://web.stanford.edu/~jurafsky/slp3/3.pdf
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值