NLP笔记之Markov assumption 和 language model

贝叶斯模型无法表示长句子,多个单词的条件下,某个词出现的概率极小,再经过链式法则连乘之后,概率更小。

针对这个问题,有马尔科夫假设:

马尔科夫假设:某个单词出现的概率只与它前面的一个或几个单词有关。

一阶马尔科夫模型对应二元语法模型bigram

二阶马尔科夫模型对应三元语法模型trigram

 

一元语法模型无法表示语句中单词之间的关系。一元模型下,正常语句的概率和改句子打乱后的概率相同,显然不合理。常用二元语法模型,最高用到五元语法模型。

 

N元模型的问题,无法处理未登录词。

 

语言模型评估

理想情况下:

  1. 假设有两个语言模型A,B
  2. 选定一个特定的任务,比如拼写纠错
  3. 把两个模型应用到此任务中
  4. 最后比较准确率。

此方法太麻烦,需要搭建一套流程。

其他评估语言模型方法:困惑度 Perplexity

perplexity=2^{-\left ( x \right )},其中x:average log likelihood

困惑度越小,句子概率越大,句子确定度越高,越准确。

几种语法模型困惑度
 unigrambigramtrigram
perplexity962170109

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值