基于深度学习的自然语言处理--笔记(第九章)

提示:第9章 语言模型


9.1 语言模型任务

语言模型是给一个句子分配概率的任务。
除了给每个词序列分配概率,语言模型也对给定单词(或一个词序列)在一个词序列之后的可能性分配概率。

语言模型任务的完美表现是预测序列中的下一个单词具有与人类参与者所需的相同或更低的猜测数目,这是人类智能的体现 ,并且不太可能在不久的将来被实现。

语言模型就是给任何词序列 w 1 : n w_{1:n} w1:n分配一个概率,也就是 P ( w 1 : n ) P(w_{1:n}) P(w1:n)。通过概率的链式法则可以写成如下形式:
在这里插入图片描述这是一系列的词预测任务,其中预测的每个词都取决于其前面的词。当建模一个单词时,基于它的前文建模一个词比分配给整个句子一个概率值更加容易处理,公式中的最后一项取决于前n-1个词,这使得建模整个句子变得十分困难。由于这个原因,我们使用马尔可夫假设:一个k阶马尔可夫假设序列中下一个词只依赖其前k个词。

在这里插入图片描述

9.2 语言模型评估:困惑度

一个更直观的评估语言模型的方法是对于未见的句子使用困惑度(perplexity )。困惑度是一种信息论测度,用来测量一个概率模型预测样本的好坏,困惑度越低越好。
好的语言模型(例如,可以反映真实语言的使用)将会为语料中的样例分配更高的概率, 也会有更低的困惑度值。

9.3 语言模型的传统方法

语言模型的传统方法假设k阶马尔可夫性质。语言模型的任务是提供一个对 p ( w i + 1 = m ∣ w i − k : i ) p(w_{i+1}=m|w_{i-k:i}) p(wi+1=mw

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值