[Python嗯~机器学习]---对互信息的理解

互信息


通过上图可以看出,所谓互信息就是两个事件都有的信息量。

于是,在互信息定义的基础上使用jessen不等式,我们可以证明 I(X;Y) 是非负的,因此 H(X)>=H(X|Y),这里我们给出 I(X;Y)=H(Y)-H(X|Y) 的详细推导:

上面其他性质的证明类似。

  直观地说,如果把熵 H(Y) 看作一个随机变量不确定度的量度,那么 H(X|Y) 就是 X 没有涉及到的 Y 的部分的不确定度的量度。这就是“在 X 已知之后 Y 的剩余不确定度的量”,于是第一个等式的右边就可以读作“ Y 的不确定度,减去在 X 已知之后 Y 的剩余不确定度的量”,此式等价于“移除知道 X 后 Y 的不确定度的量”。这证实了互信息的直观意义为知道其中一个变量提供的另一个的信息量(即不确定度的减少量)。

  注意到离散情形 H(X|X)=0,于是 H(X)=I(X;X)。因此 I(X;X)>=I(X;Y),我们可以制定”一个变量至少包含其他任何变量可以提供的与它有关的信息“的基本原理。

  互信息也可以表示为两个随机变量的边缘分布 X 和 Y 的乘积 p(x)*p(y) 相对于随机变量的联合熵 p(x,y) 的相对熵:

此外,令 p(x|y)=p(x,y)/p(y)。则:

 注意到,这里相对熵涉及到仅对随机变量 X 积分,表达式 

 现在以 Y 为变量。于是互信息也可以理解为相对熵 X 的单变量分布 p(x) 相对于给定 Y 时X 的条件分布 p(x|y) :分布 p(x|y) 和 p(x) 之间的平均差异越大,信息增益越大。

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值