信息论学习模型 ----互信息

考虑一对连续的随机变量X和Y,这两者是相关的。由概率论,可以将X和Y的联合概率表示为:

pX,Y=pY(y|x)px(x) p X , Y = p Y ( y | x ) p x ( x )

由此根据微分熵的定义,有:
h(X,Y)=h(X)+h(Y|X) h ( X , Y ) = h ( X ) + h ( Y | X )

这里h(X,Y)称为X和Y的联合微分熵,且h(Y|X)称为给定X,Y的条件微分熵。用文字描述,可以说关于X和Y的不确定性等于关于X的不确定性加上给定X时Y的不确定性。相似的,可以说关于X和Y的不确定性假设给定Y时X的不确定性,如下所示:
h(X,Y)=h(Y)+h(X|Y) h ( X , Y ) = h ( Y ) + h ( X | Y )

在连续随机变量X应用到系统的输入,在系统的输出端产生了一个连续的随机变量Y,通过定义,微分熵 h(X) h ( X ) 是在观察系统输出Y之前关于系统输入X的不确定性,而条件微分熵H(X|Y)是在观察了系统输出Y之后的系统输入X的不确定性。其差H(X) - H(X|Y)就是由观察系统输出Y所决定的系统输入X的不确定性。这一熵差称为系统输入X和系统输出Y之间的互信息;
I(X:Y),因此可以写为:
I(X;Y)=h(x)h(X|Y)=++px,y(x,y)log(pX,Y(x,y)pX(x)pY(y))dxdy I ( X ; Y ) = h ( x ) − h ( X | Y ) = ∫ − ∞ + ∞ ∫ − ∞ + ∞ p x , y ( x , y ) log ⁡ ( p X , Y ( x , y ) p X ( x ) p Y ( y ) ) d x d y

=++pX|Y(x|y)pY(y)log(pX,Y(x,y)pY(y))dxdy = ∫ − ∞ + ∞ ∫ − ∞ + ∞ p X | Y ( x | y ) p Y ( y ) l o g ( p X , Y ( x , y ) p Y ( y ) ) d x d y

两个连续随机变量X和Y之间的互信息具有三个重要性质:
性质1 非负性
互信息 I(X;Y) I ( X ; Y ) 总是非负的,即:
I(X;Y)0 I ( X ; Y ) ≥ 0

性质2 对称性
I(Y,X)=I(X;Y) I ( Y , X ) = I ( X ; Y )

性质3 不变性
在随机变量的可逆变换下互信息是不变的
互信息的一般性

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值