机器学习中相关信息度量的备忘录
自信息
自信息(self-information)用来衡量单一随机事件发生时所包含的信息量的多寡。
I(pi)=−log(pi) I ( p i ) = − l o g ( p i )
香农熵
香农熵是随机事件X的所有可能结果的自信息期望值。
H(x)=Ex∼P[I(x)]=−∑i=1np(xi)I(xi)=−∑i=1np(xi)logb(p(xi)) H ( x ) = E x ∼ P [ I ( x ) ] = − ∑ i = 1 n p ( x i ) I ( x i ) = − ∑ i = 1 n p ( x i ) l o g b ( p ( x i ) )
互信息
互信息用来表示随机事件X和随机事件Y之间的相关性。
I(X,Y)=H(X)+H(Y