最大熵模型

GitHub
简书
CSDN

1 最大熵原理

最大熵模型(Maximum Entropy Model)是通过最大熵原理推导实现,那什么是最大熵原理?

熵是随机变量不确定性大的度量,不确定性越大,熵值越大;若随机变量变为定值,即某个值发生的概率为1,而其它事件都为0, 此时熵值为0,均匀分布是熵值最大的分布,也即“最不确定的分布”。

假设离散随机变量 X X X 的概率分布是 P ( X ) P(X) P(X),则其熵为:

(1) H ( P ) = − ∑ x p ( x ) l o g p ( x ) H(P)=-\sum_{x}p(x)logp(x) \tag{1} H(P)=xp(x)logp(x)(1)

熵满足如下条件:

0 ≤ H ( P ) ≤ l o g ∣ X ∣ 0 \leq H(P) \leq log|X| 0H(P)logX
其中, ∣ X ∣ |X| X 表示 X X X 的取值,当 X X X 的分布是均匀分布时,满足左边等号,当 X X X 是确定事件时,满足左边的等号。

从上面可知,最大熵原理认为该求解的概率模型满足如下条件:

  1. 满足事先已约束的条件;
  2. 然后在满足这些条件的模型中选择熵最大的模型,即让不确定的信息等可能的发生;

2. 最大熵模型

将最大熵原理应用到分类问题中即得到最大熵模型。假设分类模型的一个条件概率分布 P ( Y ∣ X ) P(Y|X) P(YX), X ∈ χ ⊆ R n X\in\chi\subseteq R^n XχRn 表示输入, X ∈ γ X\in\gamma Xγ表示输出。这个模型表示给定的输入 X X X,以条件概率 P ( Y ∣ X ) P(Y|X) P(YX)输出 Y Y Y

给定一个训练数据集

T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) . . . ( x N , y N ) } T=\{(x_1, y_1), (x_2,y_2)...(x_N, y_N)\} T={(x1,y1),(x2,y2)...(xN,yN)}

学习的目标是用最大熵原理选择最好的模型。

对于给定训练数据集,我们可以确定联合分布 P ( X , Y ) P(X, Y) P(X,Y)的经验分布 P ~ ( X , Y ) \tilde P(X,Y) P~(X,Y)和边缘分布 P ( X ) P(X) P(X) 的经验分布 P ~ ( X ) \tilde P(X) P~(X),即:

(2) P ~ ( X = x , Y = x ) = v ( X = x , Y = y ) N P ~ ( X = x ) = X ( X = x ) N \tilde P(X=x, Y=x) = \frac{v(X=x, Y=y)}{N} \\ \tilde P(X=x) = \frac{X(X=x)}{N} \tag{2} P~(X=x,Y=x)=Nv(X=x,Y=y)P~(X=x)=NX(X=x)(2)

其中, v ( X = x , Y = y ) v(X=x, Y=y) v(X=x,Y=y) 表示训练数据中样本 ( x , y ) (x, y) (x,y)出现的频数, V ( X = x ) V(X=x) V(X=x)表示训练数据集中 x x x 出现的频数。 N N N 表示训练样本的总容量。

特征函数 f ( x , y ) f(x, y) f(x,y) 表示输入 x x x 和输出 y y y 之间的某个约束。其定义为:

(3) f ( x , y ) = { 1 , x 和 y 满 足 约 束 0 , x 和 y 不 满 足 约 束 f(x,y)=\begin{cases} 1,\quad x和y满足约束\\ 0, \quad x和y不满足约束 \end{cases} \tag{3} f(x,y)={1,xy0,xy(3)

特征函数 f ( x , y ) f(x,y) f(x,y) 关于经验分布 P ~ ( X , Y ) \tilde P(X, Y) P~(X,Y)的期望值为:

(4) E p ~ ( f ) = ∑ x , y P ~ ( x , y ) f ( x , y ) E_{\tilde p}(f) = \sum_{x, y} \tilde P(x,y)f(x, y) \tag{4} Ep~(f)=x,yP~(x,y)f(x,y)(4)

特征函数 f ( x , y ) f(x,y) f(x,y) 关于模型 P ( Y ∣ X ) P(Y|X) P(YX) 和经验分布 P ~ ( X ) \tilde P(X) P~(X)的期望值为:

(5) E p ( f ) = ∑ x , y P ~ ( x ) P ( y ∣ x ) f ( x , y ) E_{p}(f) = \sum_{x, y} \tilde P(x)P(y|x)f(x, y) \tag{5} Ep(f)=x,yP~(x)P(yx)f(x,y)(5)

因为机器学习的目的就是从数据集中学得数据中包含的某种内在信息,因此我们可以假设公式4和公式5相等,即

(6) E p ~ ( f ) = E p ( f ) ∑ x , y P ~ ( x , y ) f ( x , y ) = ∑ x , y P ~ ( x ) P ( y ∣ x ) f ( x , y ) E_{\tilde p}(f) = E_{p}(f) \\ \sum_{x, y} \tilde P(x,y)f(x, y) = \sum_{x, y} \tilde P(x)P(y|x)f(x, y) \tag{6} Ep~(f)=Ep(f)x,yP~(x,y)f(x,y)=x,yP~(x)P(yx)f(x,y)(6)

公式6就作为模型的约束条件,如果有 n 个特征函数,则就有 n 个约束条件。

最大熵模型 假设满足所有约束条件的模型集合为

C = { P ∣ E p ~ ( f i ) = E p ( f i ) , i = 1 , 2... n } C=\{P|E_{\tilde p}(f_i) = E_{p}(f_i), i=1,2...n\} C={PEp~(fi)=Ep(fi),i=1,2...n}

定义在条件概率分布 P ( Y ∣ X ) P(Y|X) P(YX) 上的条件熵为:

(7) H ( P ) = − ∑ x , y P ~ ( x ) P ( y ∣ x ) l o g P ( y ∣ x ) H(P) = - \sum_{x,y}\tilde P(x)P(y|x)logP(y|x) \tag{7} H(P)=x,yP~(x)P(yx)logP(yx)(7)

则模型集合 C C C 条件熵最大的模型成为最大熵模型

补充

条件概率的熵的公式为
(8) H ( y ∣ x ) = − ∑ x , y p ( x , y ) l o g p ( y ∣ x ) H(y|x)=-\sum_{x,y}p(x,y)logp(y|x) \tag{8} H(yx)=x,yp(x,y)logp(yx)(8)

因此最大熵模型如公式7所示。

总之,最大熵模型就是在满足约束的模型集合中选择条件概率分布 P ( Y ∣ X ) P(Y|X) P(YX) 最大的模型。

3. 最大熵模型的学习

通过上述上述的描述,最大熵模型可以形式化为约束最优化问题,即

(9) max ⁡ P ∈ C H ( P ) = − ∑ x , y P ~ ( x ) P ( y ∣ x ) log ⁡ P ( y ∣ x ) s . t . E p ~ ( f i ) = E p ( f i ) , i = 1 , 2... , n ∑ y P ( y ∣ x ) = 1 \max_{P \in C} H(P) = -\sum_{x,y}\tilde P(x)P(y|x)\log P(y|x) \\ s.t. \quad E_{\tilde p}(f_i) = E_{p}(f_i), \quad i=1, 2...,n \\ \quad \sum_yP(y|x) = 1 \tag{9} PCmaxH(P)=x,yP~(x)P(yx)logP(yx)s.t.Ep~(fi)=Ep(fi),i=1,2...,nyP(yx)=1(9)

按照优化习惯,通常将最大值优化转换为最小值优化。即
(10) max ⁡ P ∈ C − H ( P ) = ∑ x , y P ~ ( x ) P ( y ∣ x ) log ⁡ P ( y ∣ x ) s . t . E p ~ ( f i ) = E p ( f i ) , i = 1 , 2... , n ∑ y P ( y ∣ x ) = 1 \max_{P \in C} -H(P) = \sum_{x,y}\tilde P(x)P(y|x)\log P(y|x) \\ s.t. \quad E_{\tilde p}(f_i) = E_{p}(f_i), \quad i=1, 2...,n \\ \quad \sum_yP(y|x) = 1 \tag{10} PCmaxH(P)=x,yP~(x)P(yx)logP(yx)s.t.Ep~(fi)=Ep(fi),i=1,2...,nyP(yx)=1(10)

公式10所得出的解就是最大熵模型学习的模型。

解决上述约束最优化问题,我们通过拉格朗日对偶性来进行解决。

首先我们引入拉格朗日乘子 w 0 , w 1 , w 2 . . . w n w_0, w_1,w_2...w_n w0,w1,w2...wn,定义拉格朗日函数 L ( p , w ) L(p, w) L(p,w)
(11) L ( P , w ) = − H ( P ) + w 0 ( 1 − ∑ y P ( y ∣ x ) ) + ∑ i = 1 n w i ( E p ~ ( f i ) − E p ( f i ) ) = ∑ x , y P ~ ( x ) P ( y ∣ x ) log ⁡ P ( y ∣ x ) + w 0 ( 1 − ∑ y P ( y ∣ x ) ) + ∑ i = 1 n w i ( ∑ x , y P ~ ( x , y ) f ( x , y ) − ∑ x , y P ~ ( x ) P ( y ∣ x ) f ( x , y ) ) \begin{aligned} L(P, w) &=-H(P) + w_0(1-\sum_yP(y|x))+\sum_{i=1}^{n}w_i(E_{\tilde p}(f_i) - E_{p}(f_i)) \\ &=\sum_{x,y}\tilde P(x)P(y|x)\log P(y|x) + w_0(1-\sum_yP(y|x)) \\ &+\sum_{i=1}^{n}w_i(\sum_{x,y}\tilde P(x,y)f(x, y) - \sum_{x, y} \tilde P(x)P(y|x)f(x, y)) \end{aligned} \tag{11} L(P,w)=H(P)+w0(1yP(yx))+i=1nwi(Ep~(fi)Ep(fi))=x,yP~(x)P(yx)logP(yx)+w0(1yP(yx))+i=1nwi(x,yP~(x,y)f(x,y)x,yP~(x)P(yx)f(x,y))(11)

因此,最优化问题的原始问题为
(12) min ⁡ P ∈ C max ⁡ w L ( P , w ) \min_{P\in C} \max_{w} L(P,w) \tag{12} PCminwmaxL(P,w)(12)
对偶问题

(13) max ⁡ w min ⁡ P ∈ C L ( P , w ) \max_{w} \min_{P\in C} L(P,w) \tag{13} wmaxPCminL(P,w)(13)

我们称公式10、11和12为原始问题,公式13为原始问题的对偶问题,且原始问题的解与对偶问题的解是等价的,因此,公式11的解就是我们求解的模型。

我们首先求解对偶问题公式13内部的极小化问题 min ⁡ P ∈ C L ( P , w ) \min_{P\in C} L(P,w) minPCL(P,w),该函数是关于 w w w 的函数,我们将其记作:

(14) ψ ( w ) = min ⁡ P ∈ C L ( P , w ) = L ( P w , w ) \psi (w) = \min_{P\in C} L(P,w) = L(P_w, w) \tag{14} ψ(w)=PCminL(P,w)=L(Pw,w)(14)

ψ ( w ) \psi (w) ψ(w) 称为对偶函数,同时其解记为:

(15) P w = arg ⁡ min ⁡ p L ( P , w ) = P w ( y ∣ x ) P_w = \arg \min_{p}L(P,w) = P_w(y|x) \tag{15} Pw=argpminL(P,w)=Pw(yx)(15)

我们可以利用偏导数来求解公式15,即

(16) ∂ L ( P , w ) ∂ P ( y ∣ x ) = ∑ x , y ( P ~ ( x ) log ⁡ P ( y ∣ x ) + P ~ ( x ) ) − ∑ y w o + ∑ i = 1 n w i ( − ∑ x , y P ~ ( x ) f i ( x , y ) ) = ∑ x , y P ~ ( x ) ( log ⁡ P ( y ∣ x ) + 1 ) − ∑ y w 0 − ∑ x , y P ~ ( x ) ∑ i = 1 n w i f i ( x , y ) = ∑ x , y P ~ ( x ) ( log ⁡ P ( y ∣ x ) + 1 ) − ∑ x P ~ ( x ) ∑ y w 0 − ∑ x , y P ~ ( x ) ∑ i = 1 n w i f i ( x , y ) = ∑ x , y P ~ ( x ) ( log ⁡ P ( y ∣ x ) + 1 − w 0 − ∑ i = 1 n w i f i ( x , y ) ) \begin{aligned} \frac{\partial L(P,w)}{\partial P(y|x)} &= \sum_{x,y}(\tilde P(x) \log P(y|x) + \tilde{P}(x)) -\sum_{y}w_o+\sum_{i=1}^{n}w_i(-\sum_{x,y}\tilde{P}(x)f_{i}(x,y)) \\ &= \sum_{x,y}\tilde{P}(x)(\log P(y|x) + 1) - \sum_{y}w_0-\sum_{x,y}{\tilde{P}(x)\sum_{i=1}^nw_if_i(x,y)} \\ &=\sum_{x,y}\tilde{P}(x)(\log P(y|x) + 1) - \sum_x \tilde{P}(x)\sum_{y}w_0-\sum_{x,y}{\tilde{P}(x)\sum_{i=1}^nw_if_i(x,y)} \\ &= \sum_{x,y}\tilde{P}(x)(\log P(y|x) + 1-w_0-\sum_{i=1}^nw_if_i(x,y)) \end{aligned} \tag{16} P(yx)L(P,w)=x,y(P~(x)logP(yx)+P~(x))ywo+i=1nwi(x,yP~(x)fi(x,y))=x,yP~(x)(logP(yx)+1)yw0x,yP~(x)i=1nwifi(x,y)=x,yP~(x)(logP(yx)+1)xP~(x)yw0x,yP~(x)i=1nwifi(x,y)=x,yP~(x)(logP(yx)+1w0i=1nwifi(x,y))(16)

由于 L ( P , w ) L(P,w) L(P,w)是凸函数,我们我可令上式偏导数为0,在 P ~ ( x ) > 0 \tilde P(x)>0 P~(x)>0的情况下,即可求出 P ( y ∣ x ) P(y|x) P(yx), 即:
(17) P ( y ∣ x ) = exp ⁡ ( ∑ i = 1 n w i f i ( x , y ) + w 0 − 1 ) = exp ⁡ ∑ i = 1 n w i f i ( x , y ) exp ⁡ ( 1 − w 0 ) \begin{aligned} P(y|x) &=\exp(\sum_{i=1}^{n}w_if_i(x,y)+w_0-1)\\ &=\frac{\exp{\sum_{i=1}^{n}w_if_i(x,y)}}{\exp(1-w_0)} \end{aligned} \tag{17} P(yx)=exp(i=1nwifi(x,y)+w01)=exp(1w0)expi=1nwifi(x,y)(17)

由于在概率论中, ∑ y P ( y ∣ x ) = 1 \sum_{y}P(y|x)=1 yP(yx)=1,因此需对公式17进行归一化,又 exp ⁡ ( 1 − w 0 ) \exp(1-w_0) exp(1w0)为常数,因此:

(18) P w ( y ∣ x ) = 1 Z w ( x ) exp ⁡ ( ∑ i = 1 n w i f i ( x , y ) ) P_w(y|x)=\frac{1}{Z_w(x)}\exp(\sum_{i=1}^{n}w_if_i(x,y)) \tag{18} Pw(yx)=Zw(x)1exp(i=1nwifi(x,y))(18)

其中

(19) Z w ( x ) = ∑ y exp ⁡ ( ∑ i = 1 n w i f i ( x , y ) ) Z_w(x)=\sum_{y}\exp(\sum_{i=1}^nw_if_i(x,y)) \tag{19} Zw(x)=yexp(i=1nwifi(x,y))(19)

公式18、19表示的模型就是最大熵模型 P w = p w ( y ∣ x ) P_w=p_w(y|x) Pw=pw(yx).然后求解对偶函数的极大化问题
(20) max ⁡ w ψ ( w ) \max_{w} \psi (w) \tag{20} wmaxψ(w)(20)

求得 w ∗ w^* w,得到最终模型。

4 极大似然估计

通过上面一小节的计算,我们已经求出最大熵模型,但是此时该模型还是一个关于 w w w 的函数,我们如何求出 w w w 来求得最终的模型呢。

我们先来描述对数似然函数,通过前面一章的逻辑回归模型中的最大似然估计,我们可知对数似然函数和熵在值上互为相反数,又通过公式8得知条件概率的熵形式,因此我们可以得知,条件概率分布 P ( Y ∣ X ) P(Y|X) P(YX)的对数似然函数

(21) L P ~ ( P w ) = ∑ x , y P ~ ( x , y ) log ⁡ P ( y ∣ x ) L_{\tilde P}(P_w) = \sum_{x,y}\tilde{P}(x,y)\log P(y|x) \tag{21} LP~(Pw)=x,yP~(x,y)logP(yx)(21)

我们再冲似然函数的定义方面证明上述公司的正确性。

在给定数据集 { ( x 1 , y 1 ) , ( x 2 , y 2 ) . . . ( x n , y n ) } \{(x_1,y_1),(x_2,y_2)...(x_n,y_n)\} {(x1,y1),(x2,y2)...(xn,yn)},我们可求得当前模型的似然函数为:

(22) L ( θ ) = ∏ i = 1 n P ( x i , θ ) L(\theta)=\prod_{i=1}^n P(x_i, \theta) \tag{22} L(θ)=i=1nP(xi,θ)(22)

我们假设 X i X_i Xi在训练集中出现了 C ( x i ) C(x_i) C(xi),因此公式22可以转化为:

(23) L ( θ ) = ∏ i = 1 k P ( x i , θ ) C ( x i ) L(\theta)=\prod_{i=1}^k P(x_i, \theta)^{C(x_i)} \tag{23} L(θ)=i=1kP(xi,θ)C(xi)(23)

k k k 表示训练数据集中总共有 k 种不同的输入特征,我们对上市求其 1 n \frac{1}{n} n1次方,得:

(24) L ( θ ) 1 n = ∏ i = 1 k P ( x i , θ ) C ( x i ) n L(\theta)^{\frac{1}{n}}=\prod_{i=1}^k P(x_i, \theta)^{\frac{C(x_i)}{n}} \tag{24} L(θ)n1=i=1kP(xi,θ)nC(xi)(24)

对公式24求对数的:

(25) log ⁡ L ( θ ) 1 n = log ⁡ ∏ i = 1 k P ( x i , θ ) C ( x i ) n = ∑ i = 1 k C ( x i ) n log ⁡ P ( x i , θ ) \begin{aligned} \log L(\theta)^{\frac{1}{n}} &=\log \prod_{i=1}^k P(x_i, \theta)^{\frac{C(x_i)}{n}} \\ &= \sum_{i=1}^k \frac{C(x_i)}{n} \log P(x_i, \theta)\\ \end{aligned} \tag{25} logL(θ)n1=logi=1kP(xi,θ)nC(xi)=i=1knC(xi)logP(xi,θ)(25)

因此对于 log ⁡ L ( θ ) 1 n \log L(\theta)^{\frac{1}{n}} logL(θ)n1 log ⁡ L ( θ ) \log L(\theta) logL(θ)是等价的,

因此对于条件概率分布 P ( Y ∣ X ) P(Y|X) P(YX)的对数似然函数

(26) L P ~ ( P w ) = ∑ x , y P ~ ( x , y ) log ⁡ P ( y ∣ x ) L_{\tilde P}(P_w) = \sum_{x,y}\tilde{P}(x,y)\log P(y|x) \tag{26} LP~(Pw)=x,yP~(x,y)logP(yx)(26)

对于公式21-26的推导,不具有严格的树学理论,只是为了理解下面公式27做铺垫。

一直训练数据的经验概率分布 P ~ ( X , Y ) , \tilde P(X,Y), P~(X,Y),条件概率分布 P ( Y ∣ X ) P(Y|X) P(YX)的对数似然函数表示为

(27) L P ~ ( P w ) = log ⁡ ∏ x y P ( y ∣ x ) P ~ ( x , y ) = ∑ x , y P ~ ( x , y ) log ⁡ P ( y ∣ x ) \begin{aligned} L_{\tilde P}(P_w) &=\log \prod_{xy}P(y|x)^{\tilde P(x,y)} = \sum_{x,y}\tilde{P}(x,y)\log P(y|x) \end{aligned} \tag{27} LP~(Pw)=logxyP(yx)P~(x,y)=x,yP~(x,y)logP(yx)(27)

将公式18和19带入公式27可得:
(28) L P ~ ( P w ) = ∑ x , y P ~ ( x , y ) ( ∑ i = 1 n w i f i ( x , y ) − log ⁡ Z w ( x ) = ∑ x , y P ~ ( x , y ) ∑ i = 1 n w i f i ( x , y ) − ∑ x , y P ~ ( x , y ) log ⁡ Z w ( x ) = ∑ x , y P ~ ( x , y ) ∑ i = 1 n w i f i ( x , y ) − ∑ x P ~ ( x ) log ⁡ Z w ( x ) \begin{aligned} L_{\tilde P}(P_w) &=\sum_{x,y}\tilde{P}(x,y)(\sum_{i=1}^{n}w_if_i(x,y)-\log Z_w(x) \\ &=\sum_{x,y}\tilde{P}(x,y)\sum_{i=1}^{n}w_if_i(x,y)-\sum_{x,y}\tilde{P}(x,y)\log Z_w(x) \\ &=\sum_{x,y}\tilde{P}(x,y)\sum_{i=1}^{n}w_if_i(x,y)-\sum_{x}\tilde {P}(x)\log Z_w(x) \end{aligned} \tag{28} LP~(Pw)=x,yP~(x,y)(i=1nwifi(x,y)logZw(x)=x,yP~(x,y)i=1nwifi(x,y)x,yP~(x,y)logZw(x)=x,yP~(x,y)i=1nwifi(x,y)xP~(x)logZw(x)(28)

公式28就是极大似然函数。上式最后两步最后一项的转化是因为 Z w ( x ) Z_w(x) Zw(x) 是关于 x 的函数,所以可以对 P ~ ( x , y ) \tilde{P}(x,y) P~(x,y) x x x 进行累加得到 P ~ ( x ) \tilde {P}(x) P~(x).

我们再看看对偶函数 ψ ( w ) \psi (w) ψ(w),我们将 P w ( y ∣ x ) P_w(y|x) Pw(yx) 带入公式11得:

(29) ψ ( w ) = ∑ x , y P ~ ( x ) P w ( y ∣ x ) log ⁡ P w ( y ∣ x ) + w 0 ( 1 − ∑ y P ( y ∣ x ) ) + ∑ i = 1 n w i ( ∑ x , y P ~ ( x , y ) f ( x , y ) − ∑ x , y P ~ ( x ) P w ( y ∣ x ) f ( x , y ) ) = ∑ x , y P ~ ( x ) P w ( y ∣ x ) log ⁡ P w ( y ∣ x ) + ∑ i = 1 n w i ( ∑ x , y P ~ ( x , y ) f ( x , y ) − ∑ x , y P ~ ( x ) P w ( y ∣ x ) f ( x , y ) ) = ∑ x , y P ~ ( x , y ) ∑ i = 1 n w i f ( x , y ) + ∑ x , y P ~ ( x ) P w ( y ∣ x ) ( log ⁡ P w ( y ∣ x ) − ∑ i = 1 n w i f i ( x , y ) ) = ∑ x , y P ~ ( x , y ) ∑ i = 1 n w i f ( x , y ) − ∑ x , y P ~ ( x ) P w ( y ∣ x ) log ⁡ Z w ( x ) = ∑ x , y P ~ ( x , y ) ∑ i = 1 n w i f ( x , y ) − ∑ x , y P ~ ( x ) log ⁡ Z w ( x ) \begin{aligned} \psi (w) =& \sum_{x,y}\tilde P(x)P_w(y|x)\log P_w(y|x) + w_0(1-\sum_yP(y|x)) \\ &+\sum_{i=1}^{n}w_i(\sum_{x,y}\tilde P(x,y)f(x, y) - \sum_{x, y} \tilde P(x)P_w(y|x)f(x, y)) \\ =&\sum_{x,y}\tilde P(x)P_w(y|x)\log P_w(y|x) \\ &+\sum_{i=1}^{n}w_i(\sum_{x,y}\tilde P(x,y)f(x, y) - \sum_{x, y} \tilde P(x)P_w(y|x)f(x, y)) \\ =& \sum_{x,y}\tilde P(x,y)\sum_{i=1}^{n}w_if(x, y)+\sum_{x,y}\tilde{P}(x)P_w(y|x)(\log P_w(y|x)-\sum_{i=1}^{n}w_if_i{(x,y)}) \\ =& \sum_{x,y}\tilde P(x,y)\sum_{i=1}^{n}w_if(x, y)-\sum_{x,y}\tilde{P}(x)P_w(y|x)\log Z_w(x) \\ =& \sum_{x,y}\tilde P(x,y)\sum_{i=1}^{n}w_if(x, y)-\sum_{x,y}\tilde{P}(x)\log Z_w(x) \end{aligned} \tag{29} ψ(w)=====x,yP~(x)Pw(yx)logPw(yx)+w0(1yP(yx))+i=1nwi(x,yP~(x,y)f(x,y)x,yP~(x)Pw(yx)f(x,y))x,yP~(x)Pw(yx)logPw(yx)+i=1nwi(x,yP~(x,y)f(x,y)x,yP~(x)Pw(yx)f(x,y))x,yP~(x,y)i=1nwif(x,y)+x,yP~(x)Pw(yx)(logPw(yx)i=1nwifi(x,y))x,yP~(x,y)i=1nwif(x,y)x,yP~(x)Pw(yx)logZw(x)x,yP~(x,y)i=1nwif(x,y)x,yP~(x)logZw(x)(29)

公式29第三步到第四步用到下面公式进行推导:

P w ( y ∣ x ) = 1 Z w ( x ) exp ⁡ ( ∑ i = 1 n w i f i ( x , y ) ) ⇒ log ⁡ P w ( y ∣ x ) = ∑ i = 1 n w i f i ( x , y ) − log ⁡ Z w ( x ) P_w(y|x)=\frac{1}{Z_w(x)}\exp(\sum_{i=1}^{n}w_if_i(x,y)) \Rightarrow \log P_w(y|x)=\sum_{i=1}^{n}w_if_i(x,y)-\log Z_w(x) Pw(yx)=Zw(x)1exp(i=1nwifi(x,y))logPw(yx)=i=1nwifi(x,y)logZw(x)

倒数第二步到最后一步的推导用到了 ∑ y P ( y ∣ x ) = 1 \sum_{y}P(y|x)=1 yP(yx)=1.

比较公式公式28和公式29,可得:

ψ ( w ) = L P ~ ( P w ) \psi (w) = L_{\tilde P}(P_w) ψ(w)=LP~(Pw)

因此,可以证明,最大熵模型学习中的对偶函数极大化等价于最大熵模型的极大似然估计。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值