香农信息量/自信息、信息熵、相对熵/KL散度/信息散度、交叉熵

诸神缄默不语-个人CSDN博文目录

1. 引言

在学习深度学习和信息论的过程中,我们经常会遇到一个名词——“信息熵”。对于初学者来说,这个概念可能有些抽象,甚至有点让人困惑。本文将从零开始,为大家详细解释什么是信息熵,以及它在计算机和信息论中的重要作用。

2. 什么是熵?

熵(Entropy)最初是一个热力学概念,用来描述系统的混乱程度。后来,这个概念被引入信息论,用来量化信息的“不确定性”。

3. 香农信息量/自信息

在理解信息熵之前,我们需要先了解另一个重要概念——香农信息量。

香农信息量的定义

香农信息量(Shannon Information Content)是指一个事件发生时所携带的信息量。对于一个事件 x i x_i xi,其香农信息量的计算公式为:
I ( x i ) = − log ⁡ 2 P ( x i ) I(x_i) = -\log_2 P(x_i) I(xi)=log2P(xi)

其中:
I ( x i ) I(x_i) I(xi) 表示事件 x i x_i xi 的信息量。
P ( x i ) P(x_i) P(xi) 表示事件 x i x_i xi 发生的概率。对于连续性随机变量 X X X P P P为其概率分布, P ( x ) P(x) P(x)为X在 X = x X=x X=x处的概率密度函数值

这时香农信息量的单位为比特。

如果对数以e为底,单位就是纳特(nat)。

香农信息量的含义

已知事件发生的概率为 P ( x ) P(x) P(x),则需要用多少个比特来描述(唯一标识)这个事件?
在二进制系统中,一个比特可以表示两种状态(0或1)。
如果我们需要n个比特来表示一个事件,这意味着我们可以区分 2 n 2^n 2n种不同的状态,每个状态的概率是 1 2 n \frac{1}{2^n} 2n1
P ( x ) = 1 2 n n = − log ⁡ 2 1 P ( x ) = − log ⁡ 2 P ( x i ) P(x)=\frac{1}{2^n}\\ n=-\log_2\frac{1}{P(x)}=-\log_2 P(x_i) P(x)=2n1n=log2P(x)1=log2P(xi)
概率越低,事件越罕见,所需的比特数越多,信息量也就越大。
通过这个公式,我们能够量化事件发生时的信息量,并且这个量化结果在二进制系统中有直接的实际意义。

直观理解:数据aaBaaaVaaaaa
三个字母出现的概率分别为: P ( a ) = 10 12 , P ( B ) = 1 12 , P ( V ) = 1 12 P(a)=\frac{10}{12},P(B)=\frac{1}{12},P(V)=\frac{1}{12} P(a)=1210,P(B)=121,P(V)=121
香农信息量分别为: I ( a ) = 0.263 , I ( B ) = 3.585 , I ( V ) = 3.585 I(a)=0.263,I(B)=3.585,I(V)=3.585 I(a)=0.263,I(B)=3.585,I(V)=3.585
由于比特数向上取整,所以我们分别需要1、4、4个比特来代表这3个字母,比如把a编码为0,把B编码为1000,把V编码为1001,数据编码结果就成了:001000000100100000
但这时我们可能会想,在这种情况下用4个比特是不是有点浪费了?直接把a编码为0,把B编码为10,把V编码为11,也可以实现无损编码,压缩更大。但是如果对于另一组数据:abBcdeVfhgim,这时B和V的香农信息量仍然是3.585个比特,但是2个比特就不能区分这12个字母了,4个比特才能保证可以编码B和V。香农信息量就是保证能编码事件时所用的比特数。

香农信息量计算示例

如果一个事件 A A A 的发生概率为 0.1,那么其香农信息量为:

I ( A ) = − log ⁡ 2 0.1 ≈ 3.32 I(A) = -\log_2 0.1 \approx 3.32 I(A)=log20.13.32

这表示事件 A A A 发生时,它携带了约 3.32 bits 的信息量。

香农信息量与信息熵的关系

信息熵是所有可能事件的香农信息量的期望值。换句话说,信息熵是香农信息量的加权平均值,权重为每个事件发生的概率。因此,信息熵可以看作是整个信息源的不确定性的度量。

4. 信息熵

信息熵的定义

信息熵是由克劳德·香农(Claude Shannon)在1948年提出的一个概念。它用于衡量信息源产生的信息量。简单来说,信息熵表示的是在一个信息源中,每个符号出现的平均不确定性。

信息熵的计算公式

用期望评估整体系统的信息量:“事件香农信息量×事件概率”的累加

H ( p ) = E [ I ( x ) ] = E [ − log ⁡ ( p ( x ) ) ] H(p)=E\big[I(x)\big]=E\big[-\log\big(p(x)\big)\big] H(p)=E[I(x)]=E[log(p(x))]

信息熵公式
(对于连续型随机变量):
H ( p ) = H ( X ) = E x ∼ p ( x ) [ − log ⁡ p ( x ) ] = − ∫ p ( x ) log ⁡ p ( x ) d x H(p)=H(X)=E_{x∼p(x)}[−\log p(x)]=−\displaystyle\int p(x)\log p(x)dx H(p)=H(X)=Exp(x)[logp(x)]=p(x)logp(x)dx

(对于离散型随机变量):
H ( p ) = H ( X ) = E x ∼ p ( x ) [ − log ⁡ p ( x ) ] = − ∑ i = 1 n p ( x i ) log ⁡ p ( x i ) H(p)=H(X)=E_{x∼p(x)}[−\log p(x)]=−\displaystyle\sum\limits_{i=1}^np(x_i)\log p(x_i) H(p)=H(X)=Exp(x)[logp(x)]=i=1np(xi)logp(xi)

其中:

  • H ( X ) H(X) H(X) 表示随机变量 X X X 的熵。
  • P ( x i ) P(x_i) P(xi) 表示随机变量 X X X 取值 x i x_i xi 的概率。

一般情况下在神经网络中,默认以 e e e为底,这样算出来的香农信息量虽然不是最小的可用于完整表示事件的比特数,但对于信息熵的含义来说是区别不大的。其实只要这个底数是大于1的,都能用来表达信息熵的大小。

信息熵计算示例

为了更好地理解这个公式,我们来看一个具体的例子。假设我们有一个信息源,它只会产生四个符号 A , B , C , D A, B, C, D A,B,C,D,它们出现的概率分别是 0.1, 0.2, 0.4 和 0.3。那么,这个信息源的熵可以计算如下:

H ( X ) = − ( 0.1 log ⁡ 2 0.1 + 0.2 log ⁡ 2 0.2 + 0.4 log ⁡ 2 0.4 + 0.3 log ⁡ 2 0.3 ) H(X) = -(0.1 \log_2 0.1 + 0.2 \log_2 0.2 + 0.4 \log_2 0.4 + 0.3 \log_2 0.3) H(X)=(0.1log20.1+0.2log20.2+0.4log20.4+0.3log20.3)

通过计算我们可以得到:

H ( X ) ≈ 1.846 H(X) \approx 1.846 H(X)1.846

这个结果表明,在这个信息源中,每个符号平均包含约 1.846 bits 的信息。

5. 衡量两个分布间的差异:相对熵/KL散度/信息散度 & 交叉熵

相对熵

两个概率分布间差异的非对称性度量。

在信息论中,相对熵等价于两个概率分布的信息熵的差值,若其中一个概率分布为真实分布( p ( x i ) p(x_i) p(xi) ),另一个为理论(拟合)分布( q ( x i ) q(x_i) q(xi) ),则此时相对熵等于交叉熵1与真实分布的信息熵之差,表示使用理论分布拟合真实分布时产生的信息损耗:

D K L ( p ∥ q ) = ∑ i = 1 N [ p ( x i ) log ⁡ p ( x i ) − p ( x i ) log ⁡ q ( x i ) ] D_{KL}(p∥q)=\displaystyle\sum\limits_{i=1}^N\Big[p(x_i)\log p(x_i)−p(x_i)\log q(x_i)\Big] DKL(pq)=i=1N[p(xi)logp(xi)p(xi)logq(xi)]

其中:

  • P ( x i ) P(x_i) P(xi) 是真实分布 P P P 中事件 x i x_i xi 的概率。
  • Q ( x i ) Q(x_i) Q(xi) 是近似分布 Q Q Q 中事件 x i x_i xi 的概率。

有一种理解是:信息量变成了 − log ⁡ ( q ) -\log(q) log(q),但事件概率还是原先的 p p p,所以会变成那个公式

假设理论拟合出来的事件概率分布跟真实的一模一样,那么这玩意就等于真实事件的信息熵,这一点显而易见。

假设拟合的不是特别好,那么这个玩意会比真实事件的信息熵大(这个在相对熵(KL散度)__寒潭雁影的博客-CSDN博客_kl三都一文中有证明,感觉还是比较好证的)。

也就是在理论拟合出来的事件概率分布跟真实的一模一样的时候,相对熵等于0。而拟合出来不太一样的时候,相对熵大于0。这个性质很关键,因为它正是深度学习梯度下降法需要的特性。假设神经网络拟合完美了,那么它就不再梯度下降,而不完美则因为它大于0而继续下降。

但它有不好的地方,就是它是不对称的。

相对熵(KL散度)__寒潭雁影的博客-CSDN博客_kl三都一文中还介绍了为什么用相对熵衍生出的交叉熵而不是均方差作为损失函数来训练神经网络,主要是关心梯度消失问题。相关的分析博文还可以参考,我只浏览过一遍还没有细看:1. 深度学习1—最简单的全连接神经网络__寒潭雁影的博客-CSDN博客_全连接神经网络实例 2. 一文弄懂神经网络中的反向传播法——BackPropagation - Charlotte77 - 博客园 3. 神经网络中w,b参数的作用(为何需要偏置b的解释)_AI_盲的博客-CSDN博客_神经元 为什么要有偏置

交叉熵:
H q ( p ) = ∑ x p ( x ) log ⁡ 1 q ( x ) H_q(p)=\sum_xp(x)\log\frac{1}{q(x)} Hq(p)=xp(x)logq(x)1

KL散度=交叉熵-信息熵
D K L ( p ∥ q ) = H q ( p ) − H ( p ) = ∑ x p ( x ) log ⁡ 1 q ( x ) − ( − ∑ x p ( x ) log ⁡ p ( x ) ) = ∑ i = 1 N [ p ( x i ) log ⁡ p ( x i ) − p ( x i ) log ⁡ q ( x i ) ] \begin{aligned} D_{KL}(p∥q)&=H_q(p)-H(p)\\ &=\sum_xp(x)\log\frac{1}{q(x)}-\bigg(-\sum_xp(x)\log p(x)\bigg)\\ &=\displaystyle\sum\limits_{i=1}^N\Big[p(x_i)\log p(x_i)−p(x_i)\log q(x_i)\Big] \end{aligned} DKL(pq)=Hq(p)H(p)=xp(x)logq(x)1(xp(x)logp(x))=i=1N[p(xi)logp(xi)p(xi)logq(xi)]

在这里插入图片描述
第一行表示p所含的信息量/平均编码长度 H ( p ) H(p) H(p)
第二行是cross-entropy,即用q来编码p所含的信息量/平均编码长度|或者称之为q对p的cross-entropy;
第三行是上面两者之间的差值,即q对p的KL距离,KL距离越大说明差值越大,说明两个分布的差异越大。
(注意这三者都是非负的。上面说的KL和cross-entropy是两个不同分布之间的距离度量,因此用 H ( p ) H(p) H(p)来表示熵。如果是测量同一分布中两个变量相互影响的关系,则一般用 H ( X ) H(X) H(X)来表示熵,如联合信息熵和条件信息熵 - 简书(我还没看))

这一部分我还没看的参考资料:1. 【机器学习】信息量,信息熵,交叉熵,KL散度和互信息(信息增益)_哈乐笑的博客-CSDN博客(这一篇公式符号似乎有问题) 2. 熵 (信息论) - 维基百科,自由的百科全书

6. 信息熵在深度学习中的应用

在深度学习中,信息熵有许多重要的应用,以下是几个主要的方面:

交叉熵损失函数

在分类问题中,我们通常使用交叉熵损失函数(Cross-Entropy Loss)来衡量模型预测结果与真实结果之间的差异。交叉熵损失函数基于信息熵定义,用于衡量两个概率分布之间的距离。

交叉熵损失函数的公式为:

L = − ∑ i = 1 n y i log ⁡ p ( y i ) L = -\sum_{i=1}^{n} y_i \log p(y_i) L=i=1nyilogp(yi)

其中:

  • y i y_i yi 是真实标签的独热编码(one-hot encoding)。
  • p ( y i ) p(y_i) p(yi) 是模型对类别 i i i 的预测概率。

信息增益

在决策树算法中,信息增益是用来选择最佳分割特征的标准。信息增益表示在某一特征的条件下,信息熵的减少量。信息增益越大,表示特征对分类效果越好。

信息增益的公式为:

信息增益 = H ( D ) − ∑ i = 1 n ∣ D i ∣ ∣ D ∣ H ( D i ) \text{信息增益} = H(D) - \sum_{i=1}^{n} \frac{|D_i|}{|D|} H(D_i) 信息增益=H(D)i=1nDDiH(Di)

其中:

  • H ( D ) H(D) H(D) 是数据集 D D D 的熵。
  • ∣ D i ∣ |D_i| Di 是数据集 D D D 中第 i i i 个子集的大小。

总结

通过本文的介绍,希望大家对信息熵有了一个初步的了解。信息熵是一个非常重要的概念,在信息论和深度学习中都有广泛的应用。掌握信息熵的概念和计算方法,对于深入理解许多机器学习和深度学习算法至关重要。

如果你对本文有任何疑问或建议,欢迎在评论区留言,我们一起交流学习!

参考资料

  1. 香农信息量__寒潭雁影的博客-CSDN博客
  2. 还没看
    1. Claude E. Shannon, “A Mathematical Theory of Communication,” Bell System Technical Journal, vol. 27, pp. 379-423, 623-656, July, October, 1948.

感谢阅读!

如果你觉得这篇文章对你有帮助,请点赞并分享给更多的小伙伴。你们的支持是我不断创作的动力!

希望这篇博文能帮助到你,祝学习愉快!


  1. 交叉熵_百度百科 ↩︎

  • 4
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

诸神缄默不语

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值