本文仅用于笔记记录,转载于知乎回答:如何通俗的解释交叉熵与相对熵?
题目1:爸爸拿来一个箱子,跟小明说:里面有橙、紫、蓝及青四种颜色的小球任意个,各颜色小球的占比不清楚,现在我从中拿出一个小球,你猜我手中的小球是什么颜色?
为了使被罚时间最短,小明发挥出最强王者的智商,瞬间就想到了以最小的代价猜出答案,简称策略1,小明的想法是这样的。
在这种情况下,小明什么信息都不知道,只能认为四种颜色的小球出现的概率是一样的。所以,根据策略1,1/4概率是橙色球,小明需要猜两次,1/4是紫色球,小明需要猜两次,其余的小球类似,所以小明预期的猜球次数为:H = 1/4 * 2 + 1/4 * 2 + 1/4 * 2 + 1/4 * 2 = 2
题目2:爸爸还是拿来一个箱子,跟小明说:箱子里面有小球任意个,但其中1/2是橙色球,1/4是紫色球,1/8是蓝色球及1/8是青色球。我从中拿出一个球,你猜我手中的球是什么颜色的?
小明毕竟是最强王者,仍然很快得想到了答案,简称策略2,他的答案是这样的。
在这种情况下,小明知道了每种颜色小球的比例,比如橙色占比二分之一,如果我猜橙色,很有可能第一次就猜中了。所以,根据策略2,1/2的概率是橙色球,小明需要猜一次,1/4的概率是紫色球,小明需要猜两次,1/8的概率是蓝色球,小明需要猜三次,1/8的概率是青色球,小明需要猜三次,所以小明猜题次数的期望为:H = 1/2 * 1 + 1/4 * 2 + 1/8 * 3 + 1/8 * 3= 1.75
题目3:其实,爸爸只想让小明意识到自己的错误,并不是真的想罚他,所以拿来一个箱子,跟小明说:里面的球都是橙色,现在我从中拿出一个,你猜我手中的球是什么颜色?
最强王者怎么可能不知道,肯定是橙色,小明需要猜0次。
现象到分析
信息量
当然,信息量和信息熵都有着严格的定义,这边简单介绍下。在信息论中,信息量,或者叫自信息(self-information),其代表一个事件所能够提供信息的多少,具体计算方式为:
I
(
x
)
=
−
log
P
(
x
)
I(x)=-\log P(x)
I(x)=−logP(x)
信息熵
其是基于这样的想法进行信息量化的,一个不太可能发生的事件发生了,要比一个非常可能发生的事件提供更多的信息(概率小,log值高)。但是,自信息只能衡量单个事件的信息量,而整个系统呈现的是一个分布(例如题目一的分布就是1/4,1/4,1/4,1/4),因此在信息论中,使用信息熵来对概率分布进行量化,即
H
(
X
)
=
E
X
∼
P
[
I
(
x
)
]
=
−
E
X
∼
P
[
P
(
x
)
]
H(X)=E_{X \sim P}[I(x)]=-E_{X \sim P}[P(x)]
H(X)=EX∼P[I(x)]=−EX∼P[P(x)]
上面三个题目表现出这样一种现象:针对特定概率为p的小球,需要猜球的次数
=
log
2
1
p
= \log _{2} \frac{1}{p}
=log2p1,例如题目2中,1/4是紫色球,
log
2
4
=
2
\log _{2} 4 = 2
log24=2 次;1/8是蓝色球,
log
2
8
=
3
\log _{2} 8=3
log28=3次,这叫做一个事件得自信息(self-information)。
那么,针对整个系统,有多种可能发生的事件,预期的猜题次数为:
∑
k
=
1
N
p
k
log
2
1
p
k
\sum_{k=1}^{N} p_{k} \log _{2} \frac{1}{p_{k}}
∑k=1Npklog2pk1,这就是信息熵,上面三个题目的预期猜球次数都是由这个公式计算而来,第一题的信息熵为2,第二题的信息熵为1.75,最三题的信息熵为
1
∗
log
1
=
0
1^{*} \log 1=0
1∗log1=0。
那么信息熵代表着什么含义呢?
信息熵代表的是随机变量或整个系统的不确定性,熵越大,随机变量或系统的不确定性就越大。上面题目1的熵 > 题目2的熵 > 题目3的熵。
在题目1中,小明对整个系统一无所知,只能假设所有的情况出现的概率都是均等的,此时的熵是最大的。
题目2中,小明知道了橙色小球出现的概率是1/2及其他小球各自出现的概率,说明小明对这个系统有一定的了解,所以系统的不确定性自然会降低,所以熵小于2。
题目3中,小明已经知道箱子中肯定是橙色球,爸爸手中的球肯定是橙色的,因而整个系统的不确定性为0,也就是熵为0。
所以,在什么都不知道的情况下,熵会最大,针对上面的题目1~~题目3,这个最大值是2,除此之外,其余的任何一种情况,熵都会比2小。
所以,每一个系统都会有一个真实的概率分布,也叫真实分布,题目1的真实分布为(1/4,1/4,1/4,1/4),题目2的真实分布为(1/2,1/4,1/8,1/8),而根据真实分布,我们能够找到一个最优策略,以最小的代价消除系统的不确定性,而这个代价大小就是信息熵,记住,信息熵衡量了系统的不确定性,而我们要消除这个不确定性,所要付出的【最小努力】(猜题次数、编码长度等)的大小就是信息熵。具体来讲,题目1只需要猜两次就能确定任何一个小球的颜色,题目2只需要猜测1.75次就能确定任何一个小球的颜色。
交叉熵
现在回到题目2,假设小明只是钻石段位而已,智商没王者那么高,他使用了策略1,即
爸爸已经告诉小明这些小球的真实分布是(1/2,1/4, 1/8,1/8),但小明所选择的策略却认为所有的小球出现的概率相同,相当于忽略了爸爸告诉小明关于箱子中各小球的真实分布,而仍旧认为所有小球出现的概率是一样的,认为小球的分布为(1/4,1/4,1/4,1/4),这个分布就是非真实分布。此时,小明猜中任何一种颜色的小球都需要猜两次,即1/2 * 2 + 1/4 * 2 + 1/8 * 2 + 1/8 * 2 = 2
。
很明显,针对题目2,使用策略1是一个坏的选择,因为需要猜题的次数增加了,从1.75变成了2。因此,当我们知道根据系统的真实分布制定最优策略去消除系统的不确定性时,我们所付出的努力是最小的,但并不是每个人都和最强王者一样聪明,我们也许会使用其他的策略(非真实分布)去消除系统的不确定性,就好比如我将策略1用于题目2(原来这就是我在白银的原因),那么,当我们使用非最优策略消除系统的不确定性,所需要付出的努力的大小我们该如何去衡量呢?
这就需要引入交叉熵,其用来衡量在给定的真实分布下,使用非真实分布所指定的策略消除系统的不确定性所需要付出的努力的大小。
正式的讲,交叉嫡的公式为:
∑
k
=
1
N
p
k
log
2
1
q
k
\sum_{k=1}^{N} p_{k} \log _{2} \frac{1}{q_{k}}
k=1∑Npklog2qk1
其中
p
k
p_{k}
pk 表示真实分布,
q
k
\quad q_{k}
qk 表示非真实分布。
例如上面所讲的将策略1用于题目2,真实分布
p
k
=
(
1
2
,
1
4
,
1
8
,
1
8
)
,
p_{k}=\left(\frac{1}{2}, \frac{1}{4}, \frac{1}{8}, \frac{1}{8}\right),
pk=(21,41,81,81), 非真实分布
q
k
=
(
1
4
,
1
4
,
1
4
,
1
4
)
,
q_{k}=\left(\frac{1}{4}, \frac{1}{4}, \frac{1}{4}, \frac{1}{4}\right),
qk=(41,41,41,41), 交叉熵为
1
2
∗
log
2
4
+
1
4
∗
log
2
4
+
1
8
∗
log
2
4
+
1
8
∗
log
2
4
=
2
,
\frac{1}{2} * \log _{2} 4+\frac{1}{4} * \log _{2} 4+\frac{1}{8} * \log _{2} 4+\frac{1}{8} * \log _{2} 4=2,
21∗log24+41∗log24+81∗log24+81∗log24=2, 比最优
策略的1.75来得大。
因此,交叉熵越低,这个策略就越好,最低的交叉熵也就是使用了真实分布所计算出来的信息熵,因为此时 p k = q k p_{k}=q_{k} pk=qk ,交叉熵 = 信息熵。这也是为什么在机器学习中的分类算法中,我们总是最小化交叉熵,因为交叉熵越低,就证明由算法所产生的策略最接近最优策略,也间接证明我们算法所算出的非真实分布越接近真实分布。
相对熵(KL散度)
最后,我们如何去衡量不同策略之间的差异呢?这就需要用到相对熵,其用来衡量两个取值为正的函数或概率分布之间的差异,即:
K
L
(
f
(
x
)
∥
g
(
x
)
)
=
∑
x
∈
X
f
(
x
)
∗
log
2
f
(
x
)
g
(
x
)
\mathrm{KL}(\mathrm{f}(\mathrm{x}) \| \mathrm{g}(\mathrm{x}))=\sum_{x \in X} f(x) * \log _{2} \frac{f(x)}{g(x)}
KL(f(x)∥g(x))=x∈X∑f(x)∗log2g(x)f(x)
现在,假设我们想知道某个策略和最优策略之间的差异,我们就可以用相对熵来衡量这两者之间的差异。即,相对熵 = 某个策略的交叉熵 - 信息熵(根据系统真实分布计算而得的信息熵,为最优策略),公式如下:
K
L
(
p
∥
q
)
=
H
(
p
,
q
)
−
H
(
p
)
=
∑
k
=
1
N
p
k
log
2
1
q
k
−
∑
k
=
1
N
p
k
log
2
1
p
k
=
∑
k
=
1
N
p
k
log
2
p
k
q
k
\mathrm{KL}(\mathrm{p} \| \mathrm{q})=\mathrm{H}(\mathrm{p}, \mathrm{q})-\mathrm{H}(\mathrm{p})=\sum_{k=1}^{N} p_{k} \log _{2} \frac{1}{q_{k}}-\sum_{k=1}^{N} p_{k} \log _{2} \frac{1}{p_{k}}=\sum_{k=1}^{N} p_{k} \log _{2} \frac{p_{k}}{q_{k}}
KL(p∥q)=H(p,q)−H(p)=k=1∑Npklog2qk1−k=1∑Npklog2pk1=k=1∑Npklog2qkpk
所以将策略1用于题目2,所产生的相对熵为2 - 1.75 = 0.25。
参考
如何通俗的解释交叉熵与相对熵?Peiwen回答
《数学之美》吴军
Information entropy