信息熵基础(4)

本文摘抄自《信息论基础-第二版》第二章:熵、相对熵与互信息

4. 熵与互信息的关系

可将互信息I(X;Y)重新写为:

I(X;Y)=\sum_{x,y}p(x,y)\log\frac{p(x,y)}{p(x)p(y)}=\sum_{x,y}\log\frac{p(x|y)}{p(x)}

=-\sum_{x,y}p(x,y)\log p(x)+\sum_{x,y}p(x,y)\log p(x|y)

=-\sum_{x}p(x)\log p(x)-(-\sum_{x,y}p(x,y)\log p(x|y))

=H(X)-H(X|Y)

由此,互信息I(X;Y)是在给定Y知识的条件下X的不确定度的缩减量。

对称的,亦可得到I(X;Y)=H(Y)-H(Y|X),因而,X含有Y的信息量等同于Y含有X的信息量。

由第二节知,H(X,Y)=H(X)+H(Y|X),得到公式:

I(X;Y)=H(X)+H(Y)-H(X,Y)

最后注意到I(X;X)=H(X)-H(X|X)=H(X),因此随机变量与自身的互信息为该随机变量的熵。有时,熵成为自信息(self-information)就是这个原因。

定理2.4.1 互信息于熵

\newline I(X;Y)=H(X)-H(X|Y) \newline I(X;Y)=H(Y)-H(Y|X) \newline I(X;Y)=H(X)+H(Y)-H(X,Y) \newline I(X;Y)=I(Y;X) \newline I(X;X)=H(X)

H(X),H(Y),H(X,Y),H(X|Y),H(Y|X)和I(X|Y)之间的关系可用文氏图表示。可注意到,互信息I(X;Y)对应于X的信息和Y的信息相交的部分。

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值