信息论常见概念:熵、互信息、KL散度和信息增益

信息论在机器学习中的常见概念

信息的不确定度表示。

1. 信息量

定义:消除事件不确定性所需的信息量,单位:比特(bit)。
如果事件x发生,P(x) 是事件x发生的概率,P(x)可以为“事件x发生”所提供的信息量为h(x)。
h ( x ) = − l o g 2 P ( x ) h(x) = - log_2P(x) h(x)=log2P(x)

2. 熵

熵:发生的事件中包含的 信息平均值 ,是不确定性的度量,不确定性越大则熵越大。
H ( X ) = − ∑ i n P ( x i ) h ( x i ) H(X) = -\sum_i^nP(x_i)h(x_i) H(X)=inP(xi)h(xi)
H ( X ) = − ∑ i n P ( x i ) l o g 2 P ( x i ) H(X) = -\sum_i^nP(x_i)log_2P(x_i) H(X)=inP(xi)log2P(xi)

3. 联合熵

定义:度量二维随机变量的不确定性
H ( X , Y ) = − ∑ i ∑ j P ( x i , y i ) l o g 2 P ( x i , y i ) H(X,Y) = - \sum_i\sum_jP(x_i,y_i)log_2P(x_i,y_i) H(X,Y)=ijP(xi,yi)log2P(xi,yi)

4. 条件熵

定义:在X的条件下求Y的不确定性。H(Y|X)表示已知X,求Y的平均不确定性。
H ( Y ∣ X ) = − ∑ i ∑ j P ( x i , y i ) l o g 2 P ( y i ∣ x i ) H(Y|X) = -\sum_i\sum_jP(x_i,y_i)log_2P(y_i|x_i) H(YX)=ijP(xi,yi)log2P(yixi)

条件熵和联合熵的关系:
H ( X , Y ) = H ( X ) + H ( Y ∣ X ) H(X,Y) =H(X)+H(Y|X) H(X,Y)=H(X)+H(YX)
H ( Y ∣ X ) = H ( X , Y ) − H ( X ) H(Y|X) =H(X,Y)-H(X) H(YX)=H(X,Y)H(X)

5. 相对熵

别名:KL散度(Kullback–Leibler divergence,KLD),信息散度(information divergence),信息增益(information gain)
功能:主要用来衡量两个分布的相似度(相对熵是衡量同一个变量的两个一维分布之间的相似性)。假设连续随机变量x,真是的概率分布为P(x), 模型得到的近似分布为Q(x)
K L ( P ∣ ∣ Q ) = − ∑ i P ( x i ) l n Q ( x i ) − ( − ∑ i P ( x i ) l n P ( x i ) ) KL(P||Q) = -\sum_iP(x_i)lnQ(x_i) - (-\sum_iP(x_i)lnP(xi)) KL(PQ)=iP(xi)lnQ(xi)(iP(xi)lnP(xi))

K L ( P ∣ ∣ Q ) = ∑ i P ( x i ) l n P ( x i ) Q ( x i ) KL(P||Q) = \sum_iP(x_i)ln\frac{P(x_i)}{Q(x_i) } KL(PQ)=iP(xi)lnQ(xi)P(xi)

K L ( P ∣ ∣ Q ) = H ( P , Q ) − H ( P ) KL(P||Q) =H(P,Q) -H(P) KL(PQ)=H(P,Q)H(P)
H ( P , Q ) H(P,Q) H(P,Q):交叉熵(注意:H(X,Y)和它的区别;X,Y是随机变量,而P、Q是概率分布)

6. 互信息

互信息:是用来衡量两个相同的一维分布变量之间的独立性 。

I ( X , Y ) = K L ( P ( x , y ) ∣ ∣ P ( x ) P ( y ) ) I(X,Y)= KL(P(x,y)||P(x)P(y)) I(X,Y)=KL(P(x,y)P(x)P(y))
I ( X , Y ) = ∑ i P ( x i , y i ) l n P ( x i , y i ) P ( x i ) P ( y i ) I(X,Y)= \sum_iP(x_i,y_i)ln\frac{P(x_i,y_i)}{P(x_i)P(y_i)} I(X,Y)=iP(xi,yi)lnP(xi)P(yi)P(xi,yi)

互信息

7. 信息增益

假设系统原有的熵为 H(X),后来引入了特征 T,在特征 T 的情况下,系统的混乱度下降,熵减小为 H(X|T),那么特征 T 给系统带来的信息增益为: X特征下的熵 - 在特征T条件下的X的熵。
I G ( T ) = H ( X ) − H ( X ∣ T ) IG(T) = H(X) - H(X|T) IG(T)=H(X)H(XT)

信息增益率:信息增益 / T的分离信息
R ( X , T ) = I G ( T ) s p l i t i n f o ( T ) R(X,T) = \frac{IG(T)}{splitinfo(T)} R(X,T)=splitinfo(T)IG(T)


公式与推导



名称公式解释
信息量 h ( x ) = l o g 2 1 P ( x ) = − l o g 2 P ( x ) h(x) = log_2 {\frac{1}{P(x)}} = - log_2 { P(x)} h(x)=log2P(x)1=log2P(x) > 0x:一个事件
P(x):事件 x 发生的概率
0 < P(x) < 1
l o g 2 P ( x ) log_2P(x) log2P(x) < 0
− l o g 2 P ( x ) -log_2P(x) log2P(x) > 0
H ( X ) = − ∑ i n P ( x i ) h ( x i ) H(X) = -\sum_i^nP(x_i)h(x_i) H(X)=inP(xi)h(xi)
离散: H ( X ) = − ∑ i = 1 n P ( x i ) l o g 2 ( x i ) H(X) = - \sum_{i=1}^n P(x_i)log_2(x_i) H(X)=i=1nP(xi)log2(xi)
连续: H ( X ) = − ∫ i n P ( x ) l o g 2 ( x ) d x H(X) = - \int_{i}^n P(x)log_2(x) dx H(X)=inP(x)log2(x)dx
联合熵 H ( X , Y ) = ∑ i m ∑ j n P ( x i , y j ) l o g 2 P ( x i , y j ) H(X,Y) = \sum_i^{m}\sum_j^{n} P(x_i,y_j)log_2 P(x_i,y_j) H(X,Y)=imjnP(xi,yj)log2P(xi,yj)
条件熵 H ( Y / X ) = − ∑ i ∑ j P ( x i , y i ) l o g 2 P ( y i / x i ) H(Y/ X) = - \sum_i\sum_jP(x_i,y_i)log_2{P(y_i/x_i)} H(Y/X)=ijP(xi,yi)log2P(yi/xi)
= − ∑ i ∑ j P ( x i ) P ( y i / x i ) l o g 2 P ( y i / x i ) = - \sum_i\sum_jP(x_i)P(y_i/x_i)log_2{P(y_i/x_i)} =ijP(xi)P(yi/xi)log2P(yi/xi)
= − ∑ i P ( x i ) ∑ j P ( y i / x i ) l o g 2 P ( y i / x i ) = - \sum_iP(x_i)\sum_jP(y_i/x_i)log_2{P(y_i/x_i)} =iP(xi)jP(yi/xi)log2P(yi/xi)
= − ∑ i P ( x i ) H ( Y / x i ) = - \sum_iP(x_i)H(Y/x_i) =iP(xi)H(Y/xi)
联合熵
& 条件熵
H ( X , Y ) = − ∑ i m ∑ j n P ( x i , y j ) l o g 2 P ( x i , y j ) H(X,Y) = - \sum_i^{m}\sum_j^{n} P(x_i,y_j)log_2 P(x_i,y_j) H(X,Y)=imjnP(xi,yj)log2P(xi,yj)
= − ∑ i m ∑ j n { P ( x i , y j ) l o g 2 ( P ( x i / y j ) ∗ P ( x i ) ) } = -\sum_i^{m}\sum_j^{n}\{ P(x_i,y_j)log_2(P(x_i / y_j)*P(x_i))\} =imjn{P(xi,yj)log2(P(xi/yj)P(xi))}
= − ∑ i m ∑ j n P ( x i , y j ) ( l o g 2 P ( x i / y j ) + l o g 2 P ( x i ) ) } = -\sum_i^{m}\sum_j^{n} P(x_i,y_j) (log_2P(x_i / y_j)+log_2P(x_i))\} =imjnP(xi,yj)(log2P(xi/yj)+log2P(xi))}
= − ∑ i m ∑ j n P ( x i , y j ) l o g 2 P ( x i / y j ) − ∑ i m ( ∑ j n P ( x i , y j ) ) l o g 2 P ( x i ) = -\sum_i^{m}\sum_j^{n}P(x_i,y_j) log_2P(x_i / y_j) -\sum_i^{m}(\sum_j^{n} P(x_i,y_j)) log_2P(x_i) =imjnP(xi,yj)log2P(xi/yj)im(jnP(xi,yj))log2P(xi)
= H ( Y / X ) + H ( X ) = H(Y/X) + H(X) =H(Y/X)+H(X)
联 合 熵 : H ( X , Y ) = H ( Y / X ) + H ( X ) 联合熵:H(X,Y) = H(Y/X) + H(X) H(X,Y)=H(Y/X)+H(X)
条 件 熵 : H ( Y / X ) = H ( X , Y ) − H ( X ) 条件熵: H(Y/X) = H(X,Y) - H(X) H(Y/X)=H(X,Y)H(X)
∑ j n P ( x i , y j ) = P ( x i ) \sum_j^{n} P(x_i,y_j) = P(x_i) jnP(xi,yj)=P(xi)
相对熵
&KL散度
K L ( P / / Q ) = − ∑ i P ( x i ) l n Q ( x i ) − ( − ∑ i P ( x i ) l n P ( x i ) ) KL(P//Q) = - \sum_iP(x_i)lnQ(x_i)-(- \sum_iP(x_i)lnP(x_i)) KL(P//Q)=iP(xi)lnQ(xi)(iP(xi)lnP(xi))
= ∑ i P ( x i ) l n P ( x i ) Q ( x i ) = \sum_iP(x_i)ln\frac{P(x_i)}{Q(x_i)} =iP(xi)lnQ(xi)P(xi)
K L ( p / / q ) = − ∫ x P ( x ) l n Q ( x i ) d x − ( − ∫ x P ( x ) l n P ( x ) d x ) KL(p//q) = - \int_xP(x)lnQ(x_i)dx-(- \int_xP(x)lnP(x)dx) KL(p//q)=xP(x)lnQ(xi)dx(xP(x)lnP(x)dx)
= ∫ x P ( x ) l n P ( x ) Q ( x ) = \int_xP(x)ln\frac{P(x)}{Q(x)} =xP(x)lnQ(x)P(x)
K L ( p / / q ) = H ( P , Q ) − H ( P ) KL(p//q) = H(P,Q) -H(P) KL(p//q)=H(P,Q)H(P)
H(P,Q):在这儿不是联合熵
H(P,Q) = − ∑ i P ( x i ) l n ( Q ( x i ) ) -\sum_iP(x_i)ln(Q(x_i)) iP(xi)ln(Q(xi))
互信息 I ( X ; Y ) = K L { P ( x , y ) / / P ( x ) Q ( x ) } I(X;Y) = KL\{P(x,y) // P(x)Q(x)\} I(X;Y)=KL{P(x,y)//P(x)Q(x)}
= ∑ i ∑ j P ( x i , y i ) l n P ( x i , y i ) P ( x i ) Q ( y i ) = \sum_i\sum_jP(x_i,y_i)ln\frac{P(x_i,y_i)}{P(x_i)Q(y_i)} =ijP(xi,yi)lnP(xi)Q(yi)P(xi,yi)
= ∑ i ∑ j { P ( x i , y i ) { l n P ( x i , y i ) − l n P ( x i ) − l n Q ( y i ) } } = \sum_i\sum_j\{P(x_i,y_i) \{lnP(x_i,y_i) - lnP(x_i) - lnQ(y_i)\}\} =ij{P(xi,yi){lnP(xi,yi)lnP(xi)lnQ(yi)}}
= − H ( X , Y ) + H ( X ) + H ( Y ) = -H(X,Y) +H(X) +H(Y) =H(X,Y)+H(X)+H(Y)
= H ( X ) − H ( X / Y ) = H ( Y ) − H ( Y / X ) = H(X) - H(X/Y) =H(Y) - H(Y/X) =H(X)H(X/Y)=H(Y)H(Y/X)
H ( Y / X ) = H ( X ) − H ( X , Y ) H(Y/X)= H(X) - H(X,Y) H(Y/X)=H(X)H(X,Y)
and
H ( X / Y ) = H ( Y ) − H ( X , Y ) H(X/Y)= H(Y) - H(X,Y) H(X/Y)=H(Y)H(X,Y)
信息增益 I G ( T ) = H ( X ) − H ( X / T ) IG(T) = H(X) - H(X/T) IG(T)=H(X)H(X/T)引入特征T后系统混乱度降低,系统熵降低到H(X/T)
信息的增益为IG(T)
信息增益率 R ( X , T ) = I G ( T ) s p l i t i n f o ( T ) R(X,T) = \frac{IG(T)}{splitinfo(T)} R(X,T)=splitinfo(T)IG(T)信息增益 除以 T的分离信息
  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值