解惑深度学习中的困惑度Perplexity

困惑度的定义

困惑度(Perplexity)是衡量语言模型好坏的一个常用指标。语言模型(language model)可以预测序列(比如一个句子)中每个时间步词元(比如一个句子中的逐个单词)的概率分布,继而计算一个序列的概率。

一个好的语言模型应该有更高的概率生成一个好的序列,即生成的序列不应该让人感到很困惑,困惑度的核心思想是:序列生成的概率越大,其困惑度越小,因此可以使用困惑度这个指标来评估语言模型的好坏。

深度学习中,困惑度的公式为:

e x p [ − 1 n ∑ t = 1 n l o g P ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ] exp[-{1 \over{n}}\sum_{t=1}^{n} log P(x_t|x_{t-1},x_{t-2},...,x_1)] exp[n1t=1nlogP(xtxt1,xt2,...,x1)]

困惑度公式来源

我们看下困惑度的公式是怎么得到的。

序列(比如句子)通常由词元(比如单词或字符)组成:

S = ( x 1 , x 2 , . . . , x n ) S=(x_1,x_2,...,x_n) S=(x1,x2,...,xn)

其中 n n n 是序列的长度。生成此序列的概率为:

P ( S ) = P ( x 1 , x 2 , . . . , x n )       ( 1 ) P(S)=P(x_1,x_2,...,x_n) \ \ \ \ \ (1) P(S)=P(x1,x2,...,xn)     (1)

一个序列中每个时间步的词元的生成概率不是完全独立的,而是会受到前面一些词元的影响,因此
P ( x 1 , x 2 , . . . , x n ) = P ( x 1 ) ⋅ P ( x 2 ∣ x 1 ) ⋅ P ( x 3 ∣ x 2 , x 1 ) ⋅ . . . ⋅ P ( x n ∣ x n − 1 , x n − 2 , . . . , w 1 ) = ∏ t = 1 n P ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 )       ( 2 ) \begin{align} P(x_1,x_2,...,x_n) & = P(x_1)·P(x_2|x_1)·P(x_3|x_2,x_1)·...·P(x_n|x_{n-1},x_{n-2},...,w_1) \\ & = \prod_{t=1}^{n}P(x_t|x_{t-1},x_{t-2},...,x_1) \ \ \ \ \ (2) \\ \end{align} P(x1,x2,...,xn)=P(x1)P(x2x1)P(x3x2,x1)...P(xnxn1,xn2,...,w1)=t=1nP(xtxt1,xt2,...,x1)     (2)
P ( S ) P(S) P(S)越大,则说明语言模型的拟合效果越好,求 P ( S ) P(S) P(S)的最大值相当于求 − l o g P ( W ) -logP(W) logP(W)的最小值,再对词元数 n n n 取个平均得:
− 1 n l o g P ( S ) = − 1 n l o g ∏ t = 1 n P ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ) = − 1 n ∑ t = 1 n l o g P ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 )       ( 3 ) \begin{align} -{1 \over{n}}logP(S) & = -{1 \over{n}}log\prod_{t=1}^{n}P(x_t|x_{t-1},x_{t-2},...,x_1)) \\ & = -{1 \over{n}}\sum_{t=1}^{n} log P(x_t|x_{t-1},x_{t-2},...,x_1) \ \ \ \ \ (3) \\ \end{align} n1logP(S)=n1logt=1nP(xtxt1,xt2,...,x1))=n1t=1nlogP(xtxt1,xt2,...,x1)     (3)
( 3 ) (3) (3) 相当于这个序列中 n n n 个词元交叉熵损失的平均值。

困惑度与交叉熵

语言模型本质上也是个分类问题,对于一个包含 n n n 个词元的序列(句子),里面的每个词元都会做一次预测,然后计算预测结果与实际值的交叉熵损失。因为这个序列包含 n n n 个词元,所以要做 n n n 次预测和交叉熵损失的计算才能得到整个序列的平均交叉熵。

交叉熵的理解可参考 交叉熵 这篇文章

假设共有 J J J 个不同的词元

J = ( w 1 , w 2 , . . . , w J ) J=(w_1,w_2,...,w_J) J=(w1,w2,...,wJ)

对于序列 S S S 在第 t t t 个位置上的词元 x t x_t xt ,它属于 J J J 个词元的预测概率分布与真实概率分布分别为 P ( W ) 、 Q ( W ) P(W)、Q(W) P(W)Q(W),其中

p j = P ( W = w j ) = P w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ,    j = 1 , 2 , 3 , . . . , J p_j=P(W=w_j)=P_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1), \ \ j=1,2,3,...,J pj=P(W=wj)=Pwj(xtxt1,xt2,...,x1),  j=1,2,3,...,J

q j = Q ( W = w j ) = Q w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ,    j = 1 , 2 , 3 , . . . , J q_j=Q(W=w_j)=Q_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1), \ \ j=1,2,3,...,J qj=Q(W=wj)=Qwj(xtxt1,xt2,...,x1),  j=1,2,3,...,J

则两个概率分布的交叉熵损失可表示为:

H ( Q , P ) = − ∑ j = 1 J q j l o g p j = − ∑ j = 1 J Q w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) l o g P w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) H(Q,P)=-\sum_{j=1}^Jq_j log p_j=-\sum_{j=1}^J Q_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1) log P_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1) H(Q,P)=j=1Jqjlogpj=j=1JQwj(xtxt1,xt2,...,x1)logPwj(xtxt1,xt2,...,x1)

假设 w w w 是序列 S S S 在第 t t t 个位置上真实的词元,即 x t = w x_t=w xt=w ,则真实分布 Q ( W ) Q(W) Q(W) 可表示为:
Q w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) = { 1 , w j = w 0 , w j ≠ w Q_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1)= \left\{\begin{matrix} 1,w_j=w \\ 0,w_j≠w \end{matrix}\right. Qwj(xtxt1,xt2,...,x1)={1,wj=w0,wj=w
这个式子可对应深度学习中分类模型标签向量的表示:一般真实值位置为1,其他位置都为0,故:
H ( Q , P ) = − ∑ j = 1 J Q w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) l o g P w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) = − [ Q w ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) l o g P w ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) + ∑ w j ≠ w Q w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) l o g P w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ] = − [ 1 ⋅ l o g P w ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) + ∑ w j ≠ w 0 ⋅ l o g P w j ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ] = − l o g P w ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) \begin{align} H(Q,P) & = -\sum_{j=1}^J Q_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1) log P_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1) \\ & = -[Q_{w}(x_t|x_{t-1},x_{t-2},...,x_1) log P_{w}(x_t|x_{t-1},x_{t-2},...,x_1)+\sum_{w_j≠w} Q_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1) log P_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1)] \\ & = -[1·log P_{w}(x_t|x_{t-1},x_{t-2},...,x_1)+\sum_{w_j≠w} 0·log P_{w_j}(x_t|x_{t-1},x_{t-2},...,x_1)] \\ & = -log P_{w}(x_t|x_{t-1},x_{t-2},...,x_1) \\ \end{align} H(Q,P)=j=1JQwj(xtxt1,xt2,...,x1)logPwj(xtxt1,xt2,...,x1)=[Qw(xtxt1,xt2,...,x1)logPw(xtxt1,xt2,...,x1)+wj=wQwj(xtxt1,xt2,...,x1)logPwj(xtxt1,xt2,...,x1)]=[1logPw(xtxt1,xt2,...,x1)+wj=w0logPwj(xtxt1,xt2,...,x1)]=logPw(xtxt1,xt2,...,x1)
序列 S S S 其他位置上词元的交叉熵损失的计算以此类推,所以对于包含 n n n 个词元的整个序列 S S S 的平均交叉熵损失为:

1 n ∑ t = 1 n − l o g P ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) {1 \over{n}}\sum_{t=1}^{n} -log P(x_t|x_{t-1},x_{t-2},...,x_1) n1t=1nlogP(xtxt1,xt2,...,x1)

困惑度只不过是在平均交叉熵外套了一个壳

e x p [ − 1 n ∑ t = 1 n l o g P ( x t ∣ x t − 1 , x t − 2 , . . . , x 1 ) ] exp[-{1 \over{n}}\sum_{t=1}^{n} log P(x_t|x_{t-1},x_{t-2},...,x_1)] exp[n1t=1nlogP(xtxt1,xt2,...,x1)]

困惑度公式的理解:

  • 在最好的情况下,模型总是完美地估计标签词元的概率为1。在这种情况下,模型的困惑度为1;

  • 在最坏的情况下,模型总是预测标签词元的概率为0。在这种情况下,困惑度是正无穷大。

  • 15
    点赞
  • 31
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值