相对熵(KL散度)

上一篇文章我们简单介绍了信息熵的概念,知道了信息熵可以表达数据的信息量大小,是信息处理一个非常重要的概念。

对于离散型随机变量,信息熵公式如下:
H ( p ) = H ( X ) = E x ∼ p ( x ) [ − log ⁡ p ( x ) ] = − ∑ i = 1 n p ( x ) log ⁡ p ( x ) H ( p ) = H ( X ) = \mathrm { E } _ { x \sim p ( x ) } [ - \log p ( x ) ] = -\sum_{i=1}^n p ( x )\log p ( x ) H(p)=H(X)=Exp(x)[logp(x)]=i=1np(x)logp(x)
对于连续型随机变量,信息熵公式如下:
H ( p ) = H ( X ) = E x ∼ p ( x ) [ − log ⁡ p ( x ) ] = − ∫ p ( x ) log ⁡ p ( x ) d x H ( p ) = H ( X ) = \mathrm { E } _ { x \sim p ( x ) } [ - \log p ( x ) ] = - \int p ( x ) \log p ( x ) d x H(p)=H(X)=Exp(x)[logp(x)]=p(x)logp(x)dx
注意,我们前面在说明的时候 log ⁡ \log log是以2为底的,但是一般情况下在神经网络中,默认以 e e e为底,这样算出来的香农信息量虽然不是最小的可用于完整表示事件的比特数,但对于信息熵的含义来说是区别不大的。其实只要这个底数是大于1的,都能用来表达信息熵的大小。

本篇我们来看看机器学习中比较重要的一个概念—相对熵。相对熵,又被称为KL散度或信息散度,是两个概率分布间差异的非对称性度量 。在信息论中,相对熵等价于两个概率分布的信息熵的差值,若其中一个概率分布为真实分布,另一个为理论(拟合)分布,则此时相对熵等于交叉熵与真实分布的信息熵之差,表示使用理论分布拟合真实分布时产生的信息损耗 。

看完上面的解释,我相信你跟我开始看的时候一模一样,一脸懵逼。下面我们直接看公式,然后慢慢理解:
D K L ( p ∥ q ) = ∑ i = 1 N [ p ( x i ) log ⁡ p ( x i ) − p ( x i ) log ⁡ q ( x i ) ] D _ { K L } ( p \| q ) = \sum _ { i = 1 } ^ { N } \left[ p \left( x _ { i } \right)\log p \left( x _ { i } \right) - p \left( x _ { i } \right)\log q \left( x _ { i } \right)\right] DKL(pq)=i=1N[p(xi)logp(xi)p(xi)logq(xi)]
上面的 p ( x i ) p ( x _i) p(xi)为真实事件的概率分布, q ( x i ) q ( x _i) q(xi)为理论拟合出来的该事件的概率分布。

因此该公式的字面上含义就是真实事件的信息熵与理论拟合的事件的香农信息量与真实事件的概率的乘积的差的累加。比较难懂的是 − ∑ i = 1 N p ( x i ) log ⁡ q ( x i ) -\sum _ { i = 1 } ^ { N } p \left( x _ { i } \right) \log q \left( x _ { i } \right) i=1Np(xi)logq(xi)这玩意,到底是什么鬼。经过我看了又看,我发现好像很难做出含义解释,估计这东西是前人凑出来的好用的东西(以后有新的理解会更新上来)。那么退而求其次看看它有什么用吧。

假设理论拟合出来的事件概率分布跟真实的一模一样,那么这玩意就等于真实事件的信息熵,这一点显而易见。

假设拟合的不是特别好,那么这个玩意会比真实事件的信息熵大(稍后证明)。

也就是在理论拟合出来的事件概率分布跟真实的一模一样的时候,相对熵等于0。而拟合出来不太一样的时候,相对熵大于0。这个性质很关键,因为它正是深度学习梯度下降法需要的特性。假设神经网络拟合完美了,那么它就不再梯度下降,而不完美则因为它大于0而继续下降。

但它有不好的地方,就是它是不对称的。举个例子,比如随机变量 X ∼ P X \sim P XP取值为1,2,3时的概率分别为[0.1,0.4,0.5],随机变量 Y ∼ Q Y \sim Q YQ取值为1,2,3时的概率分别为[0.4,0.2,0.4],则:
D ( P ∥ Q ) = 0.1 × log ⁡ ( 0.1 0.4 ) + 0.4 × log ⁡ ( 0.4 0.2 ) + 0.5 × log ⁡ ( 0.5 0.4 ) = 0.250 D ( P \| Q ) = 0.1 \times \log \left( \frac { 0.1 } { 0.4 } \right) + 0.4 \times \log \left( \frac { 0.4 } { 0.2 } \right) + 0.5 \times \log \left( \frac { 0.5 } { 0.4 } \right)=0.250 D(PQ)=0.1×log(0.40.1)+0.4×log(0.20.4)+0.5×log(0.40.5)=0.250

D ( Q ∥ P ) = 0.4 × log ⁡ ( 0.4 0.1 ) + 0.2 × log ⁡ ( 0.2 0.4 ) + 0.4 × log ⁡ ( 0.4 0.5 ) = 0.327 D ( Q \| P ) = 0.4 \times \log \left( \frac { 0.4 } { 0.1 } \right) + 0.2 \times \log \left( \frac { 0.2 } { 0.4 } \right) + 0.4 \times \log \left( \frac { 0.4 } { 0.5 } \right)=0.327 D(QP)=0.4×log(0.10.4)+0.2×log(0.40.2)+0.4×log(0.50.4)=0.327

也就是用 P P P来拟合 Q Q Q和用 Q Q Q来拟合 P P P的相对熵居然不一样,而他们的距离是一样的。这也就是说,相对熵的大小并不跟距离有一一对应的关系。这点蛮头疼的,因为一般我们希望距离越远下降越快,而相对熵取哪个为参考在同等距离情况下下降的速度都不一样,这就非常尴尬了。

推导到这相信很多人会想,既然如此,那为什么现在还是很多人用相对熵衍生出来的交叉熵作为损失函数来训练神经网络而不直接用距离相关的均方差呢?
以下面的例子稍作解释:
假设神经网络的最后一层激活函数为 s i g m o i d sigmoid sigmoid,它长这样:
在这里插入图片描述
可以看到它的两头异常的平,也就是说在那些地方的导数接近于0。而反向传播是需要求导的,用了均方差损失函数之后求导结果包含 y ( y − 1 ) y(y-1) y(y1)(可参考这篇文章),这在 y y y接近于0或者1的时候都趋于0,会导致梯度消失,网络训练不下去。但如果用相对熵衍生出来的交叉熵作为损失函数则没有这个问题。详细的分析可见这篇文章。因此虽然相对熵的距离特性不是特别好,但总归好过直接梯度消失玩不下去,因此很多用 s i g m o i d sigmoid sigmoid作为激活函数的神经网络还是选择了用相对熵衍生出来的交叉熵作为损失函数。
当然如果你选用的不是 s i g m o i d sigmoid sigmoid激活函数,则不需要考虑这些,这个是外话了。

最后来证明下相对熵公式只有在 p ( x i ) p ( x _i) p(xi)等于 q ( x i ) q ( x _i) q(xi)的时候等于0,其他时候大于0。
要 证 : D K L ( p ∥ q ) = ∑ i = 1 N [ p ( x i ) log ⁡ p ( x i ) − p ( x i ) log ⁡ q ( x i ) ] ≥ 0 要证:D _ { K L } ( p \| q ) = \sum _ { i = 1 } ^ { N } \left[ p \left( x _ { i } \right)\log p \left( x _ { i } \right) - p \left( x _ { i } \right)\log q \left( x _ { i } \right)\right]\geq0 DKL(pq)=i=1N[p(xi)logp(xi)p(xi)logq(xi)]0

即 证 ∑ i = 1 N p ( x i ) log ⁡   q ( x i ) p ( x i ) ≤ 0 即证\sum _ { i = 1 } ^ { N } p (x_ { i }) \log \ \frac { q (x_ { i }) } { p (x_ { i }) } \leq0 i=1Np(xi)log p(xi)q(xi)0

又 ln ⁡ ( x ) ≤ x − 1 , 当 且 仅 当 x = 1 时 等 号 成 立 又\ln ( x ) \leq x - 1,当且仅当x=1时等号成立 ln(x)x1x=1

故 ∑ i = 1 N p ( x i ) log ⁡   q ( x i ) p ( x i ) ≤ ∑ i = 1 N p ( x i ) ( q ( x i ) p ( x i ) − 1 ) = ∑ i = 1 N [ p ( x i ) − q ( x i ) ] = 0 故\sum _ { i = 1 } ^ { N } p (x_ { i }) \log \ \frac { q (x_ { i }) } { p (x_ { i }) } \leq\sum _ { i = 1 } ^ { N } p (x_ { i }) (\frac { q (x_ { i }) } { p (x_ { i }) }-1)=\sum _ { i = 1 } ^ { N } [p (x_ { i })-q (x_ { i })]=0 i=1Np(xi)log p(xi)q(xi)i=1Np(xi)(p(xi)q(xi)1)=i=1N[p(xi)q(xi)]=0 上 面 式 子 中 ≤ 的 等 于 号 只 在 p ( x i ) = q ( x i ) 时 成 立 。 上面式子中\leq的等于号只在p (x_ { i })=q (x_ { i })时成立。 p(xi)=q(xi)

  • 152
    点赞
  • 383
    收藏
    觉得还不错? 一键收藏
  • 22
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 22
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值