似然函数与最大似然估计、交叉熵概念与机器学习中的交叉熵函数

似然函数与最大似然估计

似然的概念

“似然”用通俗的话来说就是可能性,极大似然就是最大的可能性。

似然函数

似然函数是关于统计模型中的一组概率的函数(这些概率的真实值我们并不知道),似然函数的因变量值表示了模型中的概率参数的似然性(可能性)。

最大似然估计

我们列出似然函数后,从真实事件中取得一批n个采样样本数据,最大似然估计会寻找基于我们的n个值的采样数据得到的关于的最可能的概率值(即在所有可能的概率取值中,寻找一组概率值使这n个值的采样数据的“可能性”最大化)。
最大似然估计中采样需满足一个很重要的假设,就是所有的采样都是独立同分布的。

伯努利分布

伯努利分布又名两点分布或0-1分布,介绍伯努利分布前首先需要引入伯努利试验。
伯努利试验是只有两种可能结果的单次随机试验,即对于一个随机变量X而言:
P ( X = 1 ) = p P(X=1)=p P(X=1)=p
P ( X = 0 ) = 1 − p P(X=0)=1-p P(X=0)=1p
伯努利试验可以表达为“是或否”的问题。
如果试验E是一个伯努利试验,将E独立重复地进行n次,则称这一串重复的独立试验为n重伯努利试验。
进行一次伯努利试验,成功概率为p,失败概率为1-p,则称随机变量X服从伯努利分布。
其概率质量函数为:
f ( x ) = p x ( 1 − p ) 1 − x f(x)=p^{x}(1-p)^{1-x} f(x)=px(1p)1x
伯努利分布的
E X = p , D X = p ( 1 − p ) EX=p, \quad DX=p(1-p) EX=p,DX=p(1p)
伯努利分布是一个离散型机率分布,是N=1时二项分布的特殊情况。

伯努利分布下的最大似然估计推导出交叉熵损失函数

假设
P ( X = 1 ) = p , P ( X = 0 ) = 1 − p \mathrm{P}(\mathrm{X}=1)=\mathrm{p}, \quad \mathrm{P}(\mathrm{X}=0)=1-\mathrm{p} P(X=1)=p,P(X=0)=1p
则有概率质量函数为
P ( X ) = p X ( 1 − p ) 1 − X P(X)=p^{X}(1-p)^{1-X} P(X)=pX(1p)1X
因为我们只有一组采样数据集D,我们可以统计得到X和1-X的值,但p值(概率)未知。下面我们要建立对数似然函数,并根据采样数据集D求出P。
对数似然函数为
log ⁡ P ( D ) = log ⁡ ∏ i N P ( D i ) \log P(D)=\log \prod_{i}^{N} P\left(D_{i}\right) logP(D)=logiNP(Di)
= ∑ i log ⁡ P ( D i ) =\sum_{i} \log P\left(D_{i}\right) =ilogP(Di)
= ∑ i ( D i log ⁡ p + ( 1 − D i ) log ⁡ ( 1 − p ) ) =\sum_{i}\left(D_{i} \log p+\left(1-D_{i}\right) \log (1-p)\right) =i(Dilogp+(1Di)log(1p))
我们可以发现上式和深度学习模型中交叉熵损失函数的形式几乎相同。这个函数的值总是小于0的,而我们要做极大似然估计就是求其极大值,也就是说,这个函数的值在深度学习的梯度下降过程中从一个负数不断增大接近0(始终小于0)。为了与其他损失函数形式统一,我们在前面加上一个负号,这样就和其他损失函数一样是从一个大值不断降低向0接近了。
深度学习模型中的交叉熵函数形式:
l o s s = − ∑ i ( D i log ⁡ p + ( 1 − D i ) log ⁡ ( 1 − p ) ) loss=-\sum_{i}\left(D_{i} \log p+\left(1-D_{i}\right) \log (1-p)\right) loss=i(Dilogp+(1Di)log(1p))

现在我们再用求导得极小值点的方法来求其极大似然估计,首先将上式对p求导,并令导数为0。
∑ i N ( D i 1 p + ( 1 − D i ) 1 p − 1 ) = 0 \sum_{i}^{N}(D_{i} \frac{1}{p}+(1-D_{i}) \frac{1}{p-1})=0 iN(Dip1+(1Di)p11)=0
消去分母,得:
∑ i N ( p − D i ) = 0 \sum_{i}^{N}(p-D_{i})=0 iN(pDi)=0
p = 1 N ∑ i D i p=\frac{1}{N} \sum_{i} D_{i} p=N1iDi
这就是伯努利分布下最大似然估计求出的P。

高斯分布

其实就是正态分布,又叫高斯分布。
若随机变量X服从一个数学期望为μ、方差为σ2的正态分布,记为:
X ∼ N ( μ , σ 2 ) X \sim N\left(\mu, \sigma^{2}\right) XN(μ,σ2)
其概率密度函数为:
f ( x ) = 1 σ 2 π e − ( x − μ ) 2 2 σ 2 f(x)=\frac{1}{\sigma \sqrt{2 \pi}} e^{-\frac{(x-\mu)^{2}}{2 \sigma^{2}}} f(x)=σ2π 1e2σ2(xμ)2
正态分布的期望值μ决定了其位置,其标准差σ决定了分布的幅度。当μ = 0,σ = 1时的正态分布是标准正态分布。

高斯分布下的最大似然估计推导出均方误差损失函数

我们已经知道高斯分布的概率密度函数为:
f ( x ) = 1 2 π σ 2 e − ( x − μ ) 2 2 σ 2 f(x)=\frac{1}{\sqrt{2 \pi \sigma^{2}}} e^{-\frac{(x-\mu)^{2}}{2 \sigma^{2}}} f(x)=2πσ2 1e2σ2(xμ)2
那么其对数似然函数为:
log ⁡ P ( D ) = log ⁡ ∏ i P ( D i ) \log P(D)=\log \prod_{i} P\left(D_{i}\right) logP(D)=logiP(Di)
= ∑ i N log ⁡ P ( D i ) =\sum_{i}^{N} \log P\left(D_{i}\right) =iNlogP(Di)
= ∑ i N ( − 1 2 log ⁡ ( 2 π σ 2 ) − ( D i − μ ) 2 2 σ 2 ) =\sum_{i}^{N}\left(-\frac{1}{2} \log \left(2 \pi \sigma^{2}\right)-\frac{\left(D_{i}-\mu\right)^{2}}{2 \sigma^{2}}\right) =iN(21log(2πσ2)2σ2(Diμ)2)
= ( − N 2 log ⁡ ( 2 π σ 2 ) − 1 2 σ 2 ∑ i N ( D i − μ ) 2 ) =\left(-\frac{N}{2} \log \left(2 \pi \sigma^{2}\right)-\frac{1}{2 \sigma^{2}} \sum_{i}^{N}\left(D_{i}-\mu\right)^{2}\right) =(2Nlog(2πσ2)2σ21iN(Diμ)2)
现在我们来求其极大似然估计,即求对数似然函数取极大值时函数的自变量的取值。
将上式对μ求导,并令导数为0,可得:
∂ log ⁡ P ( D ) ∂ μ = − 1 σ 2 ∑ i N ( μ − D i ) = 0 \frac{\partial \log P(D)}{\partial \mu}=-\frac{1}{\sigma^{2}} \sum_{i}^{N}(\mu-D_{i})=0 μlogP(D)=σ21iN(μDi)=0
于是我们可得:
μ = 1 N ∑ i N D i \mu=\frac{1}{N} \sum_{i}^{N} D_{i} μ=N1iNDi
上式再对σ2求导,并令导数为0,可得:
∂ log ⁡ P ( D ) ∂ σ 2 = − N 2 σ 2 + 1 2 σ 4 ∑ i N ( D i − μ ) 2 = 0 \frac{\partial \log P(D)}{\partial \sigma^{2}}=-\frac{N}{2 \sigma^{2}}+\frac{1}{2 \sigma^{4}} \sum_{i}^{N}(D_{i}-\mu)^{2}=0 σ2logP(D)=2σ2N+2σ41iN(Diμ)2=0
于是我们可得:
σ 2 = 1 N ∑ i N ( D i − μ ) 2 \sigma^{2}=\frac{1}{N} \sum_{i}^{N}(D_{i}-\mu)^{2} σ2=N1iN(Diμ)2
我们可以发现高斯分布的对数似然函数对σ2求导后求出的σ2极大值其实就是均方误差损失函数。

信息量、熵、相对熵、交叉熵、机器学习中的交叉熵函数

信息量

假设X是一个离散型随机变量,其取值集合为X,概率分布函数为
p ( x ) = Pr ⁡ ( X = x ) , x ∈ X p(x)=\operatorname{Pr}(X=x), x \in X p(x)=Pr(X=x),xX
我们定义事件X=x0的信息量为:
I ( x 0 ) = − log ⁡ ( p ( x 0 ) ) I\left(x_{0}\right)=-\log \left(p\left(x_{0}\right)\right) I(x0)=log(p(x0))
一个事件发生的概率越大,则它所携带的信息量就越小,而当p(x0)=1时,熵将等于0,也就是说该事件的发生不会导致任何信息量的增加。
如:
小明平时不爱学习,考试经常不及格,而小王是个勤奋学习的好学生,经常得满分,所以我们可以做如下假设:
事件A:小明考试及格,对应的概率P(xA)=0.1,信息量为
I ( x A ) = − log ⁡ ( 0.1 ) = 3.3219 I\left(x_{A}\right)=-\log (0.1)=3.3219 I(xA)=log(0.1)=3.3219
事件B:小王考试及格,对应的概率P(xA)=0.999,信息量为
I ( x B ) = − log ⁡ ( 0.999 ) = 0.0014 I\left(x_{B}\right)=-\log (0.999)=0.0014 I(xB)=log(0.999)=0.0014
上面的结果可以看出,小明及格的可能性很低(十次考试只有一次及格),因此如果某次考试及格了,必然会引入较大的信息量,对应的I值也较高。而对于小王而言,考试及格是大概率事件,在事件B发生前,大家普遍认为事件B的发生几乎是确定的,因此当某次考试小王及格这个事件发生时并不会引入太多的信息量,相应的I值也非常的低。

还是通过上边的例子来说明,假设小明的考试结果是一个0-1分布XA,只有两个取值{0:不及格,1:及格}。
在某次考试结果公布前,小明的考试结果有多大的不确定度呢?
你肯定会说:十有八九不及格!因为根据先验知识,小明及格的概率仅有0.1,90%的可能都是不及格的。
怎么来度量这个不确定度?
我们对所有可能结果带来的额外信息量求取均值(期望),其结果就能够衡量出小明考试成绩的不确定度。
即:
H A ( x ) = − ( p ( x A ) log ⁡ ( p ( x A ) ) + ( 1 − p ( x A ) ) log ⁡ ( 1 − p ( x A ) ) ) = 0.4690 \begin{array}{l}{H_{A}(x)=-(p(x_{A}) \log (p(x_{A}))+(1-p(x_{A})) \log (1-p(x_{A})))=} {0.4690}\end{array} HA(x)=(p(xA)log(p(xA))+(1p(xA))log(1p(xA)))=0.4690
小王的熵为:
H B ( x ) = − ( p ( x B ) log ⁡ ( p ( x B ) ) + ( 1 − p ( x B ) ) log ⁡ ( 1 − p ( x B ) ) ) = 0.0114 \begin{array}{l}{H_{B}(x)=-(p(x_{B}) \log (p(x_{B}))+(1-p(x_{B})) \log (1-p(x_{B})))=} {0.0114}\end{array} HB(x)=(p(xB)log(p(xB))+(1p(xB))log(1p(xB)))=0.0114
虽然小明考试结果的不确定性较低,毕竟十次有9次都不及格,但是也比不上小王(1000次考试只有一次才可能不及格,结果相当的确定)。
我们再假设一个成绩相对普通的学生小东,他及格的概率是P(xC)=0.5,即及格与否的概率是一样的,则他的熵为:
H C ( x ) = 1 H_{C}(x)=1 HC(x)=1
其熵为1,也就是说他的不确定性比前边两位同学要高很多,在成绩公布之前,很难准确猜测出他的考试结果。
从上面可以看出,熵其实是信息量的期望值,它是一个随机变量的确定性的度量。熵越大,变量的取值越不确定,反之就越确定。
对于一个随机变量X而言,它的所有可能取值的信息量的期望E[I(x)]就称为熵。
X的熵定义为:
H ( X ) = E p log ⁡ 1 p ( x ) = − ∑ x ∈ X p ( x ) log ⁡ p ( x ) H(X)=E_{p} \log \frac{1}{p(x)}=-\sum_{x \in X} p(x) \log p(x) H(X)=Eplogp(x)1=xXp(x)logp(x)
如果p(x)是连续型随机变量,则熵定义为:
H ( X ) = − ∫ x ∈ X p ( x ) log ⁡ p ( x ) d x H(X)=-\int_{x \in X} p(x) \log p(x) d x H(X)=xXp(x)logp(x)dx
为保证有效性,这里约定当p(x)→0时,有
p ( x ) log ⁡ p ( x ) → 0 p(x) \log p(x) \rightarrow 0 p(x)logp(x)0
当两种取值的可能性相等时,不确定度最大(此时没有任何先验知识),这个结论可以推广到多种取值的情况。
当p=0或1时,熵为0,即此时X完全确定。
熵的单位随着公式中log运算的底数而变化,当底数为2时,单位为“比特”,底数为e时,单位为“奈特”。

相对熵(KL散度)

相对熵又称为KL散度(Kullback-Leibler divergence),它是描述两个概率分布P和Q差异的一种方法。记为
D K L ( p ∥ q ) D_{K L}(p \| q) DKL(pq)
它度量当真实分布为p时,假设分布q的无效性。
两个分布越接近,那么KL散度越小;如果越远,散度就会越大。当两个随机分布相同时,它们的相对熵为零。KL散度的结果一定是非负的。
D K L ( p ∥ q ) = E p ( log ⁡ p ( x ) q ( x ) ) = ∑ x ∈ X p ( x ) log ⁡ p ( x ) q ( x ) D_{K L}(p \| q)=E_{p}\left(\log \frac{p(x)}{q(x)}\right)=\sum_{x \in \mathcal{X}} p(x) \log \frac{p(x)}{q(x)} DKL(pq)=Ep(logq(x)p(x))=xXp(x)logq(x)p(x)
= ∑ x ∈ X ( p ( x ) log ⁡ p ( x ) − p ( x ) log ⁡ q ( x ) ) =\sum_{x \in \mathcal{X}}(p(x) \log p(x)-p(x) \log q(x)) =xX(p(x)logp(x)p(x)logq(x))
= ∑ x ∈ X p ( x ) log ⁡ p ( x ) − ∑ x ∈ X p ( x ) log ⁡ q ( x ) =\sum_{x \in \mathcal{X}} p(x) \log p(x)-\sum_{x \in \mathcal{X}} p(x) \log q(x) =xXp(x)logp(x)xXp(x)logq(x)
= − H ( p ) − ∑ x ∈ X p ( x ) log ⁡ q ( x ) =-H(p)-\sum_{x \in \mathcal{X}} p(x) \log q(x) =H(p)xXp(x)logq(x)
= − H ( p ) + E p ( − log ⁡ q ( x ) ) =-H(p)+E_{p}(-\log q(x)) =H(p)+Ep(logq(x))
= H p ( q ) − H ( p ) =H_{p}(q)-H(p) =Hp(q)H(p)
为了保证连续性,做如下约定:
0 log ⁡ 0 0 = 0 , 0 log ⁡ 0 q = 0 , p log ⁡ p 0 = ∞ 0 \log \frac{0}{0}=0, \quad 0 \log \frac{0}{q}=0, p \log \frac{p}{0}=\infty 0log00=0,0logq0=0,plog0p=
显然,当p=q时,两者之间的相对熵
D K L ( p ∥ q ) = 0 D_{K L}(p \| q)=0 DKL(pq)=0
Hp(q)表示在p分布下,使用q进行编码需要的bit数,而H(p)表示对真实分布p所需要的最小编码bit数。
相对熵的含义为:
在真实分布为p的前提下,使用q分布进行编码相对于使用真实分布p进行编码(即最优编码)所多出来的bit数。
KL散度的结果是非负的,证明如下:
K L ( p ∥ q ) = ∑ x p ( x ) log ⁡ p ( x ) q ( x ) \mathrm{KL}(p \| q)=\sum_{x} p(x) \log \frac{p(x)}{q(x)} KL(pq)=xp(x)logq(x)p(x)
= − ∑ x p ( x ) log ⁡ q ( x ) p ( x ) =-\sum_{x} p(x) \log \frac{q(x)}{p(x)} =xp(x)logp(x)q(x)
对数函数是一个上凸函数,故上式:
⩾ − log ⁡ ( ∑ x p ( x ) q ( x ) p ( x ) ) = − log ⁡ ( ∑ x q ( x ) ) = − log ⁡ 1 = 0 \begin{array}{l}{\geqslant-\log \left(\sum_{x} p(x) \frac{q(x)}{p(x)}\right)} \\ {=-\log \left(\sum_{x} q(x)\right)} \\ {=-\log 1=0}\end{array} log(xp(x)p(x)q(x))=log(xq(x))=log1=0
举例:
假设有两个随机变量X1和x2,各自服从一个高斯分布
N 1 ( μ 1 , σ 1 2 ) , N 2 ( μ 2 , σ 2 2 ) N_{1}\left(\mu_{1}, \sigma_{1}^{2}\right),N_{2}\left(\mu_{2}, \sigma_{2}^{2}\right) N1(μ1,σ12)N2(μ2,σ22)
那么这两个分布的KL散度如何计算?
已知高斯分布的概率密度函数为:
N ( μ , σ ) = 1 2 π σ 2 e ( x − μ ) 2 2 σ 2 N(\mu, \sigma)=\frac{1}{\sqrt{2 \pi \sigma^{2}}} e^{\frac{(x-\mu)^{2}}{2 \sigma^{2}}} N(μ,σ)=2πσ2 1e2σ2(xμ)2

K L ( p 1 ∥ p 2 ) = ∫ p 1 ( x ) log ⁡ p 1 ( x ) p 2 ( x ) d x = ∫ p 1 ( x ) ( log ⁡ p 1 ( x ) − log ⁡ p 2 ( x ) ) d x \begin{aligned} \mathrm{KL}(p 1 \| p 2) &=\int p_{1}(x) \log \frac{p_{1}(x)}{p_{2}(x)} \mathrm{d} x \\ &=\int p_{1}(x)\left(\log p_{1}(x)-\log p_{2}(x)\right) \mathrm{d} x \end{aligned} KL(p1p2)=p1(x)logp2(x)p1(x)dx=p1(x)(logp1(x)logp2(x))dx
= ∫ p 1 ( x ) ( log ⁡ σ 2 σ 1 + ( ( x − μ 2 ) 2 2 σ 2 2 − ( x − μ 1 ) 2 2 σ 1 2 ) ) d x =\int p_{1}(x)\left(\log \frac{\sigma_{2}}{\sigma_{1}}+\left(\frac{\left(x-\mu_{2}\right)^{2}}{2 \sigma_{2}^{2}}-\frac{\left(x-\mu_{1}\right)^{2}}{2 \sigma_{1}^{2}}\right)\right) \mathrm{d} x =p1(x)(logσ1σ2+(2σ22(xμ2)22σ12(xμ1)2))dx
= ∫ ( log ⁡ σ 2 σ 1 ) p 1 ( x ) d x + ∫ ( ( x − μ 2 ) 2 2 σ 2 2 ) p 1 ( x ) d x − ∫ ( ( x − μ 1 ) 2 2 σ 1 2 ) p 1 ( x ) d x =\int\left(\log \frac{\sigma_{2}}{\sigma_{1}}\right) p_{1}(x) \mathrm{d} x+\int\left(\frac{\left(x-\mu_{2}\right)^{2}}{2 \sigma_{2}^{2}}\right) p_{1}(x) \mathrm{d} x-\int\left(\frac{\left(x-\mu_{1}\right)^{2}}{2 \sigma_{1}^{2}}\right) p_{1}(x) \mathrm{d} x =(logσ1σ2)p1(x)dx+(2σ22(xμ2)2)p1(x)dx(2σ12(xμ1)2)p1(x)dx
= log ⁡ σ 2 σ 1 + 1 2 σ 2 2 ∫ ( ( x − μ 2 ) 2 ) p 1 ( x ) d x − 1 2 σ 1 2 ∫ ( ( x − μ 1 ) 2 ) p 1 ( x ) d x =\log \frac{\sigma_{2}}{\sigma_{1}}+\frac{1}{2 \sigma_{2}^{2}} \int\left(\left(x-\mu_{2}\right)^{2}\right) p_{1}(x) \mathrm{d} x-\frac{1}{2 \sigma_{1}^{2}} \int\left(\left(x-\mu_{1}\right)^{2}\right) p_{1}(x) \mathrm{d} x =logσ1σ2+2σ221((xμ2)2)p1(x)dx2σ121((xμ1)2)p1(x)dx
最后一步的右边最后一项就是连续型随机变量的方差计算公式。
连续型随机变量的方差计算公式为:
D ( X ) = σ 2 = ∫ − ∞ ∞ ( x − μ ) 2 f ( x ) d x D(X)=\sigma^{2}=\int_{-\infty}^{\infty}(x-\mu)^{2} f(x) d x D(X)=σ2=(xμ)2f(x)dx
可化简为:
D ( X ) = ∫ x 2 f ( x ) d x − μ 2 = E ( X 2 ) − ( E ( X ) ) 2 D(X)=\int x^{2} f(x) d x-\mu^{2}=E\left(X^{2}\right)-(E(X))^{2} D(X)=x2f(x)dxμ2=E(X2)(E(X))2
所以例子中最后一步的右边最后一项可计算出值为1/2。
故上式等于:
= log ⁡ σ 2 σ 1 + 1 2 σ 2 2 ∫ ( ( x − μ 2 ) 2 ) p 1 ( x ) d x − 1 2 =\log \frac{\sigma_{2}}{\sigma_{1}}+\frac{1}{2 \sigma_{2}^{2}} \int\left(\left(x-\mu_{2}\right)^{2}\right) p_{1}(x) \mathrm{d} x-\frac{1}{2} =logσ1σ2+2σ221((xμ2)2)p1(x)dx21
= log ⁡ σ 2 σ 1 + 1 2 σ 2 2 ∫ ( x − μ 1 + μ 1 − μ 2 ) 2 ) p 1 ( x ) d x − 1 2 =\log \frac{\sigma_{2}}{\sigma_{1}}+\frac{1}{2 \sigma_{2}^{2}} \int\left(x-\mu_{1}+\mu_{1}-\mu_{2}\right)^{2} ) p_{1}(x) \mathrm{d} x-\frac{1}{2} =logσ1σ2+2σ221(xμ1+μ1μ2)2)p1(x)dx21
= log ⁡ σ 2 σ 1 + 1 2 σ 2 2 ( ∫ ( x − μ 1 ) 2 p 1 ( x ) d x + ∫ ( μ 1 − μ 2 ) 2 p 1 ( x ) d x + 2 ∫ ( x − μ 1 ) ( μ 1 − μ 2 ) p 1 ( x ) d x ) − 1 2 \begin{array}{l}{=\log \frac{\sigma_{2}}{\sigma_{1}}+\frac{1}{2 \sigma_{2}^{2}}\left(\int\left(x-\mu_{1}\right)^{2} p_{1}(x) \mathrm{d} x+\int\left(\mu_{1}-\mu_{2}\right)^{2} p_{1}(x) \mathrm{d} x+\right.} {2 \int\left(x-\mu_{1}\right)\left(\mu_{1}-\mu_{2}\right) p_{1}(x) \mathrm{d} x )-\frac{1}{2}}\end{array} =logσ1σ2+2σ221((xμ1)2p1(x)dx+(μ1μ2)2p1(x)dx+2(xμ1)(μ1μ2)p1(x)dx)21
= log ⁡ σ 2 σ 1 + 1 2 σ 2 2 ( ∫ ( x − μ 1 ) 2 p 1 ( x ) d x + ( μ 1 − μ 2 ) 2 ) − 1 2 =\log \frac{\sigma_{2}}{\sigma_{1}}+\frac{1}{2 \sigma_{2}^{2}}\left(\int\left(x-\mu_{1}\right)^{2} p_{1}(x) \mathrm{d} x+\left(\mu_{1}-\mu_{2}\right)^{2}\right)-\frac{1}{2} =logσ1σ2+2σ221((xμ1)2p1(x)dx+(μ1μ2)2)21
= log ⁡ σ 2 σ 1 + σ 1 2 + ( μ 1 − μ 2 ) 2 2 σ 2 2 − 1 2 =\log \frac{\sigma_{2}}{\sigma_{1}}+\frac{\sigma_{1}^{2}+\left(\mu_{1}-\mu_{2}\right)^{2}}{2 \sigma_{2}^{2}}-\frac{1}{2} =logσ1σ2+2σ22σ12+(μ1μ2)221
如果假设N2是一个μ2= 0 ,σ2^2= 1的正态分布,那么N1应该是怎样的分布,才能使KL最小呢?
μ 2 = 0 , σ 2 2 = 1 \mu_{2}=0, \sigma_{2}^{2}=1 μ2=0,σ22=1
代入上式,得:
K L ( μ 1 , σ 1 ) = − log ⁡ σ 1 + σ 1 2 + μ 1 2 2 − 1 2 \mathrm{KL}\left(\mu_{1}, \sigma_{1}\right)=-\log \sigma_{1}+\frac{\sigma_{1}^{2}+\mu_{1}^{2}}{2}-\frac{1}{2} KL(μ1,σ1)=logσ1+2σ12+μ1221
当有
μ 1 = 0 , σ 1 = 1 \mu_{1}=0, \sigma_{1}=1 μ1=0,σ1=1
时,KL最小为0。

交叉熵

交叉熵容易跟相对熵搞混,二者联系紧密,但又有所区别。
假设有两个分布p,q,则它们在给定样本集上的交叉熵定义如下:
C E H ( p , q ) = E p ( − log ⁡ q ) = − ∑ x ∈ X p ( x ) log ⁡ q ( x ) = H ( p ) + D K L ( p ∥ q ) \begin{array}{l}{C E H(p, q)=E_{p}(-\log q)=-\sum_{x \in \mathcal{X}} p(x) \log q(x)=H(p)+} {D_{K L}(p \| q)}\end{array} CEH(p,q)=Ep(logq)=xXp(x)logq(x)=H(p)+DKL(pq)
可以看出,交叉熵与上一节定义的相对熵仅相差了H(p)。
当p已知时,可以把H(p)看做一个常数,此时交叉熵与KL距离在行为上是等价的,都反映了分布p,q的相似程度。最小化交叉熵等于最小化KL距离。它们都将在p=q时取得最小值H(p)(p=q时KL距离为0),因此有的工程文献中将最小化KL距离的方法称为Principle of Minimum Cross-Entropy或Minxent方法。
特别的,在logistic regression中:
p:真实样本分布,服从参数为p的0-1分布,即
X ∼ B ( 1 , p ) X \sim B(1, p) XB(1,p)
q:待估计的模型,服从参数为q的0-1分布,即
X ∼ B ( 1 , q ) X \sim B(1, q) XB(1,q)
则两者的交叉熵为:
C E H ( p , q ) = − ∑ x ∈ X p ( x ) log ⁡ P q ( x ) C E H(p, q)=-\sum_{x \in \mathcal{X}} {p}(x) \log P_{q}(x) CEH(p,q)=xXp(x)logPq(x)
= − ( P p ( x = 1 ) log ⁡ P q ( x = 1 ) + P p ( x = 0 ) log ⁡ P q ( x = 0 ) ) =-\left(P_{p}(x=1) \log P_{q}(x=1)+P_{p}(x=0) \log P_{q}(x=0)\right) =(Pp(x=1)logPq(x=1)+Pp(x=0)logPq(x=0))
= − ( p log ⁡ q + ( 1 − p ) log ⁡ ( 1 − q ) ) =-(p \log q+(1-p) \log (1-q)) =(plogq+(1p)log(1q))
对所有训练样本取均值得:
− 1 m ∑ i = 1 m ( y ( i ) log ⁡ h θ ( x ( i ) ) + ( 1 − y ( i ) log ⁡ ( 1 − h θ ( x ( i ) ) ) ) -\frac{1}{m} \sum_{i=1}^{m}(y^{(i)} \log h_{\theta}(x^{(i)})+(1-y^{(i)} \log (1-h_{\theta}(x^{(i)}))) m1i=1m(y(i)loghθ(x(i))+(1y(i)log(1hθ(x(i))))
这个结果与通过最大似然估计方法(求对数似然函数的极值)求出来的结果一致。

机器学习中的交叉熵函数

二分类问题的loss函数(输入数据是softmax或sigmoid函数的输出):
loss ⁡ = − 1 n ∑ ( y ln ⁡ a + ( 1 − y ) ln ⁡ ( 1 − a ) ) \operatorname{loss}=-\frac{1}{n} \sum(y \ln a+(1-y) \ln (1-a)) loss=n1(ylna+(1y)ln(1a))
多分类问题使用的loss函数(输入数据是softmax或sigmoid函数的输出):
loss ⁡ = − ∑ i y i ln ⁡ a i \operatorname{loss}=-\sum_{i} y_{i} \ln a_{i} loss=iyilnai

如果是在tensorflow中,loss函数往往写成下面这两种形式之一:

loss = tf.reduce_mean(- tf.reduce_sum(y * tf.log(pred), 1))
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=output, labels=Y))

举例:
假如我们的数据集是mnist,这是一个0-9的手写体数字的数据集,如果我们从其中抽出一个图片,总共只有10种可能,即数字0-9。
一般情况下我们每一次训练都是取一个批样本(batch size)。
我们现在假设batch_size为1,即每次训练只取一个样本。我们将这个批样本输入神经网络中进行计算,最后经过softmax函数或sigmoid函数后得到一个输出数据,这个输出数据是我们预测的这batchsize个图片的标签向量,它代表了我们的神经网络预测的这输入的batch size个样本的每个图片分别是哪一类图片(具体到mnist数据集里,就是图片是数字0-9中的哪一个)。
预测的标签向量的形式为:
[ a 0 , a 1 , a 2 , a 3 , a 4 , a 5 , a 6 , a 7 , a 8 , a 9 ] [a 0, a 1, a 2, a 3, a 4, a 5, a 6, a 7, a 8, a 9] [a0,a1,a2,a3,a4,a5,a6,a7,a8,a9]
我们的真实标签也是一个有着同样元素数量的向量,一般写作:
[ y 0 , y 1 , y 2 , y 3 , y 4 , y 5 , y 6 , y 7 , y 8 , y 9 ] [y 0, y 1, y 2, y 3, y 4, y 5, y 6, y 7, y 8, y 9] [y0,y1,y2,y3,y4,y5,y6,y7,y8,y9]
真实标签中除了代表自己是哪个数字的那个下标的元素是1,其他都是0,如[0,0,0,0,0,1,0,0,0,0]代表数字5。
如果我们把一个图片属于数字0-9中的一个看成10个独立事件,其实这个标签向量代表的就是10个独立事件的概率。
而真实标签代表的就是我们抽取的一个样本。这一个样本中必然会发生一个事件,而其他9个事件都不发生。
现在再看看多分类的loss函数:
l o s s = − ∑ i y i ln ⁡ a i l o s s=-\sum_{i} y_{i} \ln a_{i} loss=iyilnai
显然对于mnist问题,我们的loss函数就是i=10时的情况。
为什么有一个负号?
因为ai总是在0到1之间,而yi值不是0就是1,这就导致每一项要么为0,要么是负数。而tensorflow的优化器是向着loss值降低的方向优化的,并且最终目标是loss值尽可能接近0,所以要求loss函数是一个大于0的值。因此我们加一个负号。
在机器学习中,我们通过tensorflow使用梯度下降或其他的优化方法,不断地更新权重参数,最终使得loss函数从一个正值减小到接近0(也就是似然函数从原来的负值逐渐接近0,在这个mnist的例子中显然0是似然函数的极大值)求出一个接近似然函数极大值的点,这就是我们求出的一个接近极大似然估计值的一组ai值。
也就是说,loss函数值越小,求得的ai值代表的概率越有可能是真实概率。
二分类的loss函数也与上面的原理类似。
假如batch size为100(或大于1的其他数),我们的loss函数又是如何处理的呢?
看看我们在tensorflow中的loss函数变量的定义就知道了:

loss = tf.reduce_mean(- tf.reduce_sum(y * tf.log(pred), 1))

这个loss函数的意思是,yi与对应的lnai相乘后,使用tf.reduce_sum函数将相乘后的这个向量(相乘后的向量形式是shape=(batch size、10)的张量)按行求和(其实就是求出了每一个样本的loss值),然后按列求和后求平均值。
也就是说,当输入一批样本时,我们使用tensorflow优化器更新权重的依据是这一批样本的loss值的平均值。然后通过求loss对各个权重的梯度(链式求导法则),再用梯度更新各个权重。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值