熵、KL散度

一、信息熵(entropy)

 又称为熵,为已知概率分布的字符集的平均编码bit数。
 根据shannon的信息论,给定一个字符集的概率分布,我们可以设计一种编码,使得表示该字符集组成的字符串平均需要的比特数最少。假设这个字符集是X,对 xi x i ∈X,其出现概率为P(x),每个字符 xi x i 需要的编码长度为 log1xi log ⁡ 1 x i ,那么其最优编码平均需要的比特数等于这个字符集的,即:

H(X)=i=1np(xi)log21xi=i=1kp(xi)log2xi H ( X ) = ∑ i = 1 n p ( x i ) log 2 ⁡ 1 x i = − ∑ i = 1 k p ( x i ) log 2 ⁡ x i

 信息熵反应了一个系统的有序化程度,一个系统越是有序,那么它的信息熵就越低,反之就越高

二、KL散度(KL Divergence)

1.定义:

  又称为相对熵(relative entropy),交叉熵(cross entropy),信息增益(information gain),信息散度(information divergence)。
  KL散度是两个概率分布P和Q差别的非对称性的度量。
KL散度是用来度量使用基于分布Q(x)的编码来编码来自分布P(x)的样本平均所需的额外的比特个数。 典型情况下,P表示数据的真实分布,Q表示数据的理论分布,模型分布,或P的近似分布。
  其物理意义是:在相同事件空间里,概率分布P(x)的事件空间,若用概率分布Q(x)编码时,平均每个基本事件(符号)编码长度增加了多少比特。
  KL散度公式如下:

D(p||q)=i=1np(xi)log2p(x)q(x) D ( p | | q ) = ∑ i = 1 n p ( x i ) log 2 ⁡ p ( x ) q ( x )

2. 相对熵的性质

1)尽管KL散度从直观上是个度量或距离函数,但它并不是一个真正的度量或者距离,因为它不具有对称性,即

D(p||q)!=D(q||p) D ( p | | q ) ! = D ( q | | p )

2)相对熵的值为非负值,即
D(p||q)>=0 D ( p | | q ) >= 0

直观是来说,因为熵H(p)是p(x)分布的最优编码,其他编码所需要的bit数肯定要大于p(x)的熵H(p)。
3. 相对熵的应用
 相对熵可以衡量两个随机分布之间的距离,当两个随机分布相同时,它们的相对熵为零,当两个随机分布的差别增大时,它们的相对熵也会增大。 所以,相对熵(KL散度)可以用于比较文本的相似度,先统计出词的频率,然后计算KL散度就行了。另外,在多指标系统评估中,指标权重分配是一个重点和难点,通过相对熵可以处理。

参考地址:
https://blog.csdn.net/scw1023/article/details/59109922

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值