本文摘抄自《信息论基础-第二版》第二章:熵、相对熵与互信息
4. 熵与互信息的关系
可将互信息I(X;Y)重新写为:
由此,互信息I(X;Y)是在给定Y知识的条件下X的不确定度的缩减量。
对称的,亦可得到,因而,X含有Y的信息量等同于Y含有X的信息量。
由第二节知,H(X,Y)=H(X)+H(Y|X),得到公式:
最后注意到I(X;X)=H(X)-H(X|X)=H(X),因此随机变量与自身的互信息为该随机变量的熵。有时,熵成为自信息(self-information)就是这个原因。
定理2.4.1 互信息于熵
H(X),H(Y),H(X,Y),H(X|Y),H(Y|X)和I(X|Y)之间的关系可用文氏图表示。可注意到,互信息I(X;Y)对应于X的信息和Y的信息相交的部分。