NLP之熵相关概念

以下内容基本来自于《统计自然语言处理》:

又称为自信息(self-information),可以视为描述一个随机变量 的不确定性的数量。它表示信源X每发一个符号(不论发什么符号)所 提供的平均信息量[姜丹,2001]。一个随机变量的熵越大,它的不确 定性越大,那么,正确估计其值的可能性就越小。越不确定的随机变量越需要大的信息量用以确定其值。
 
联合熵: H(X,Y) = H(X) + H(Y|X) ——熵的连锁规则,描述一对随机变量平均所需的信息量
互信息:根据熵的连锁规则,H(X,Y )= H(X) + H(Y|X) = H(Y) + H(X|Y)
所以有H(X)-H(X|Y) = H(Y)-H(Y|X) ----X和Y的互信息I(X; Y)=H(X)-H(X|Y)
反映了在指定了Y值以后,X不确定性的减少量,或者说,Y透露了多少X的信息量
                   
        如果I(X;Y)=0,表明X、Y相互独立,如果>0,表面是相关的
相对熵:衡量两个概率分布相对差距的测度。 当两个随机分布完全相同时,相对熵0。两个概率分布p(x)和q(x)的相对熵定义为D(p || q)
交叉熵:用来衡量估计模型与真实概率分布直接的差异情况的,如果一个随机变量X~p(x),q(x)为近似p(x)的概率分布,那么随机变量X和模型q之间的交叉熵为H(X,q) = H(X) + D(p||q)

转载于:https://www.cnblogs.com/fall12/p/7751833.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值