信息论的相关基本概念

此篇博客为对赵悦著的《概率图模型学习理论及其应用》学习笔记。


1.熵

熵是对随机变量的不确定性的度量,随机变量X的熵越大,说明它的不确定性也就越大。



2.联合熵、条件熵、互信息

联合熵:借助联合概率分布对熵的自然推广。

条件熵:借助条件概率分布对熵的延伸。


条件熵H(X|Y=y)度量的是已知Y=y后,X的不确定性。

链规则:H(X,Y)=H(X)+H(Y|X)=H(Y)+H(X|Y)

互信息:在观测到Y之前,X的不确定性是H(X),通过观测Y,期望X的不确定性会变为H(X|Y),那么I(X;Y)=H(X)-H(X|Y)就是对Y包含多少X的信息的一个度量,称为Y关于X的信息。可以证明,I(X;Y)=I(Y;X),因此它又称为X和Y之间的互信息。

条件互信息:I(X;Y|Z)=H(X|Z)-H(X|Z,Y)称为给定Z时,Y关于X的信息。易证I(X;Y|Z)=I(Y;X|Z),于是I(X;Y|Z)也称为给定Z时,X和Y之间的条件互信息。




评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值