如果随机变量X的概率密度函数为p(x),那么X的熵定义为

H(X)=-\sum_{x}p(x)log_{2}p(x)

随机变量X的熵为表示这个随机变量所需要的平均比特数的一个下界。

对于服从联合分布为p(x,y)的一对离散随机变量(X,Y),其联合熵定义为

H(X,Y)=-\sum_{x\in \mathcal{X}}\sum_{y\in \mathcal{Y}}p(x,y)logp(x,y)

设X和Y是两个随机变量,由另一个随机变量导致的原随机变量不确定度的缩减量称为互信息。

I(X;Y) = H(X)-H(X|Y) = \sum_{x,y}p(x,y)log\frac{p(x,y)}{p(x)p(y)}

当X和Y相互独立时

p(x,y)=p(x)p(y)

因此I(X;Y)=0

互信息实际上是相对熵D(p\left | \right |q)的特殊特殊情形。相对熵是两个概率密度函数p和q之间的“距离”度量,定义为

D(p||q) = \sum_{x}p(x)log\frac{p(x)}{q(x)}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值