EM算法公式推导
EM 算法是一种用来进行含有隐变量的概率生成模型参数估计的迭代算法。
EM算法步骤
EM 算法通过迭代求 L ( θ ) = log P ( X ∣ θ ) L(\theta)=\log P(X|\theta) L(θ)=logP(X∣θ) 的极大似然估计,每次迭代包含两部:E步,求期望;M步,求极大化。
算法流程:
-
输入:观测变量数据 X X X,隐变量数据 Z Z Z,联合分布 P ( X , Z ∣ θ ) P(X,Z|\theta) P(X,Z∣θ) ,条件分布: P ( Z ∣ X , θ ) P(Z|X,\theta) P(Z∣X,θ) ;
-
输出:模型参数 θ \theta θ ;
-
步骤
-
选择参数的初值 θ 0 \theta^{0} θ0 ,开始迭代;
-
E 步:记 θ t \theta^{t} θt 为第 t t t 次迭代参数 θ \theta θ 的估计值,在第 i + 1 i+1 i+1 次迭代的 E 步,计算:
Q ( θ , θ t ) = E Z [ log P ( X , Z ∣ θ ) ∣ X , θ ( t ) ] = ∑ Z log P ( X , Z ∣ θ ) P ( Z ∣ X , θ ( t ) ) \begin{align} Q(\theta,\theta^{t})&=\mathbb{E}_Z[\log P(X,Z|\theta)|X,\theta^{(t)}]\\ &=\sum_{Z}\log P(X,Z|\theta)P(Z|X,\theta^{(t)}) \end{align} Q(θ,θt)=EZ[logP(X,Z∣θ)∣X,θ(t)]=Z∑logP(X,Z∣θ)P(Z∣X,θ(t))
这里 P ( Z ∣ X , θ ( t ) ) P(Z|X,\theta^{(t)}) P(Z∣X,θ(t)) 为给定观测数据 X X X 和当前参数估计 θ ( t ) \theta^{(t)} θ(t) 下隐变量数据 Z Z Z 的条件概率分布; -
M 步:求使 Q ( θ , θ ( t ) ) Q(\theta,\theta^{(t)}) Q(θ,θ(t)) 极大化的 θ \theta θ ,确定第 t + 1 t+1 t+1 次迭代的参数估计值 θ t + 1 \theta^{t+1} θt+1 :
θ ( t + 1 ) = arg max θ Q ( θ , θ t ) \theta^{(t+1)}=\arg\max_{\theta}Q(\theta,\theta^{t}) θ(t+1)=argθmaxQ(θ,θt) -
重复 2、3 两步,直到收敛。
-
函数 Q ( θ , θ ( t ) ) Q(\theta,\theta^{(t)}) Q(θ,θ(t)) 是 EM 算法的核心,称为 Q Q Q 函数。
EM算法收敛性证明
EM 迭代算法终归要求的是
log
P
(
X
∣
θ
)
\log P(X|\theta)
logP(X∣θ) 的极大似然估计,因此,要证明它的收敛性,即要证明:
log
P
(
X
∣
θ
(
t
+
1
)
)
≥
log
P
(
X
∣
θ
(
t
)
)
\log P(X|\theta^{(t+1)})\ge \log P(X|\theta^{(t)})
logP(X∣θ(t+1))≥logP(X∣θ(t))
下面开始证明:
log
P
(
X
∣
θ
)
=
log
P
(
X
,
Z
∣
θ
)
P
(
Z
∣
X
,
θ
)
=
log
P
(
X
,
Z
∣
θ
)
−
P
(
Z
∣
X
,
θ
)
\log P(X|\theta)=\log \frac{P(X,Z|\theta)}{P(Z|X,\theta)}=\log P(X,Z|\theta)-P(Z|X,\theta)
logP(X∣θ)=logP(Z∣X,θ)P(X,Z∣θ)=logP(X,Z∣θ)−P(Z∣X,θ)
接下来我们同时对等式两边乘
P
(
Z
∣
X
,
θ
(
t
)
)
P(Z|X,\theta^{(t)})
P(Z∣X,θ(t)) 在对
Z
Z
Z 求积分:
左边
=
∫
Z
P
(
Z
∣
X
,
θ
(
t
)
)
log
P
(
X
,
Z
∣
θ
)
d
Z
=
log
P
(
X
,
Z
∣
θ
)
∫
Z
P
(
Z
∣
X
,
θ
(
t
)
)
d
Z
=
log
P
(
X
,
Z
∣
θ
)
左边=\int_Z P(Z|X,\theta^{(t)})\log P(X,Z|\theta)dZ=\log P(X,Z|\theta)\int_Z P(Z|X,\theta^{(t)})dZ=\log P(X,Z|\theta)
左边=∫ZP(Z∣X,θ(t))logP(X,Z∣θ)dZ=logP(X,Z∣θ)∫ZP(Z∣X,θ(t))dZ=logP(X,Z∣θ)
即,左边相当于没变。
右边
=
∫
Z
P
(
Z
∣
X
,
θ
(
t
)
)
log
P
(
X
,
Z
∣
θ
)
−
∫
Z
P
(
Z
∣
X
,
θ
(
t
)
)
log
P
(
Z
∣
X
,
θ
)
=
Q
(
θ
,
θ
(
t
)
)
−
H
(
θ
,
θ
(
t
)
)
右边=\int_ZP(Z|X,\theta^{(t)})\log P(X,Z|\theta)-\int_ZP(Z|X,\theta^{(t)})\log P(Z|X,\theta)=Q(\theta,\theta^{(t)})-H(\theta,\theta^{(t)})
右边=∫ZP(Z∣X,θ(t))logP(X,Z∣θ)−∫ZP(Z∣X,θ(t))logP(Z∣X,θ)=Q(θ,θ(t))−H(θ,θ(t))
分别将上式两项记为
Q
(
θ
,
θ
(
t
)
)
Q(\theta,\theta^{(t)})
Q(θ,θ(t)) 和
H
(
θ
,
θ
(
t
)
)
H(\theta,\theta^{(t)})
H(θ,θ(t)) 。我们要证的是
log
P
(
X
∣
θ
(
t
+
1
)
)
≥
log
P
(
X
∣
θ
(
t
)
)
\log P(X|\theta^{(t+1)})\ge \log P(X|\theta^{(t)})
logP(X∣θ(t+1))≥logP(X∣θ(t)) ,这里可以通过证明
log
P
(
X
∣
θ
(
t
+
1
)
)
−
log
P
(
X
∣
θ
(
t
)
)
=
Q
(
θ
(
t
+
1
)
,
θ
(
t
)
)
−
Q
(
θ
(
t
)
,
θ
(
t
)
)
+
H
(
θ
(
t
)
,
θ
(
t
)
)
−
H
(
θ
(
t
+
1
)
,
θ
(
t
)
)
≥
0
\log P(X|\theta^{(t+1)})-\log P(X|\theta^{(t)})=Q(\theta^{(t+1)},\theta^{(t)})-Q(\theta^{(t)},\theta^{(t)})+H(\theta^{(t)},\theta^{(t)})-H(\theta^{(t+1)},\theta^{(t)})\ge0
logP(X∣θ(t+1))−logP(X∣θ(t))=Q(θ(t+1),θ(t))−Q(θ(t),θ(t))+H(θ(t),θ(t))−H(θ(t+1),θ(t))≥0
来得到。对于
Q
(
θ
,
θ
(
t
)
)
Q(\theta,\theta^{(t)})
Q(θ,θ(t)) ,明显是通过迭代过程的
arg
max
\arg\max
argmax 可以保证。因此,我们只需证明
H
(
θ
(
t
)
,
θ
(
t
)
)
−
H
(
θ
(
t
+
1
)
,
θ
(
t
)
)
≥
0
H(\theta^{(t)},\theta^{(t)})-H(\theta^{(t+1)},\theta^{(t)})\ge0
H(θ(t),θ(t))−H(θ(t+1),θ(t))≥0 :
H
(
θ
(
t
)
,
θ
(
t
)
)
−
H
(
θ
(
t
+
1
)
,
θ
(
t
)
)
=
∫
Z
P
(
Z
∣
X
,
θ
(
t
)
)
log
P
(
Z
∣
X
,
θ
(
t
)
)
−
∫
Z
P
(
Z
∣
X
,
θ
(
t
)
)
log
P
(
Z
∣
X
,
θ
(
t
+
1
)
)
=
∫
Z
P
(
Z
∣
X
,
θ
(
t
)
)
log
P
(
Z
∣
X
,
θ
(
t
)
)
P
(
Z
∣
X
,
θ
(
t
+
1
)
)
=
K
L
(
P
(
Z
∣
X
,
θ
(
t
)
)
∣
∣
P
(
Z
∣
X
,
θ
(
t
+
1
)
)
)
≥
0
\begin{align} H(\theta^{(t)},\theta^{(t)})-H(\theta^{(t+1)},\theta^{(t)})&=\int_ZP(Z|X,\theta^{(t)})\log P(Z|X,\theta^{(t)})-\int_ZP(Z|X,\theta^{(t)})\log P(Z|X,\theta^{(t+1)})\\ &=\int_ZP(Z|X,\theta^{(t)})\log \frac{P(Z|X,\theta^{(t)})}{P(Z|X,\theta^{(t+1)})}\\ &=KL(P(Z|X,\theta^{(t)})||P(Z|X,\theta^{(t+1)}))\ge0 \end{align}
H(θ(t),θ(t))−H(θ(t+1),θ(t))=∫ZP(Z∣X,θ(t))logP(Z∣X,θ(t))−∫ZP(Z∣X,θ(t))logP(Z∣X,θ(t+1))=∫ZP(Z∣X,θ(t))logP(Z∣X,θ(t+1))P(Z∣X,θ(t))=KL(P(Z∣X,θ(t))∣∣P(Z∣X,θ(t+1)))≥0
发现最后的形式是
P
(
Z
∣
X
,
θ
)
(
t
)
P(Z|X,\theta)^{(t)}
P(Z∣X,θ)(t) 和
P
(
Z
∣
X
,
θ
(
t
+
1
)
)
P(Z|X,\theta^{(t+1)})
P(Z∣X,θ(t+1)) 的 KL 散度,故可以直接得到上式大于等于零,收敛性得证。这里也可以由詹森不等式证得。
上面我们是给出最终的公式,然后证明它的收敛性,即 log P ( X ∣ θ ( t + 1 ) ) ≥ log P ( X ∣ θ ( t ) ) \log P(X|\theta^{(t+1)})\ge \log P(X|\theta^{(t)}) logP(X∣θ(t+1))≥logP(X∣θ(t)) ,这样来说明 EM 算法确实可以以迭代的形式来最大化 P ( X ∣ θ ) P(X|\theta) P(X∣θ) 。但是这个公式是怎么得到的呢?下面两小节我们分别从 KL 散度的角度和 Jensen 不等式的角度来推导 EM 算法的导出。
EM算法的导出——KL散度
我们再回顾一下整个算法的设定:
-
观测数据: X X X
-
隐变量: Z Z Z
-
完整数据: ( X , Z ) (X,Z) (X,Z)
-
参数: θ \theta θ
-
MLE: θ ^ M L E = log P ( X ∣ θ ) \hat{\theta}_{MLE}=\log P(X|\theta) θ^MLE=logP(X∣θ)
-
EM 公式
θ ( t + 1 ) = arg max θ ∫ log P ( X , Z ∣ θ ) P ( Z ∣ X , θ ( t ) ) d Z E 步: P ( Z ∣ X , θ ( t ) ) → E Z ∣ X , θ ( t ) [ log P ( X , Z ∣ θ ) ] M 步: θ ( t + 1 ) = arg max θ E Z ∣ X , θ ( t ) [ log P ( X , Z ∣ θ ) ] \theta^{(t+1)}=\arg\max_{\theta}\int\log P(X,Z|\theta)P(Z|X,\theta^{(t)})dZ\\ E步:P(Z|X,\theta^{(t)})\rightarrow \mathbb{E}_{Z|X,\theta^{(t)}}[\log P(X,Z|\theta)]\\ M步:\theta^{(t+1)}=\arg\max_{\theta}\mathbb{E}_{Z|X,\theta^{(t)}}[\log P(X,Z|\theta)] θ(t+1)=argθmax∫logP(X,Z∣θ)P(Z∣X,θ(t))dZE步:P(Z∣X,θ(t))→EZ∣X,θ(t)[logP(X,Z∣θ)]M步:θ(t+1)=argθmaxEZ∣X,θ(t)[logP(X,Z∣θ)]
E 步求对数条件联合概率 log P ( X , Z ∣ θ ) \log P(X,Z|\theta) logP(X,Z∣θ) 关于后验 Z ∣ X , θ ( t ) Z|X,\theta^{(t)} Z∣X,θ(t) 的期望,M 步选择一个新的 θ ( t + 1 ) \theta^{(t+1)} θ(t+1) 使得上述期望达到最大。从而迭代地使得 log P ( X ∣ θ ) \log P(X|\theta) logP(X∣θ) 达到最大。上面已经证明了这个算法的收敛性。
下面开始推导公式的导出。我们还是从对数似然
log
P
(
X
∣
θ
)
\log P(X|\theta)
logP(X∣θ) 出发:
log
P
(
X
∣
θ
)
=
log
P
(
X
,
Z
∣
θ
)
P
(
Z
∣
X
,
θ
)
=
log
P
(
X
,
Z
∣
θ
)
−
log
P
(
Z
∣
X
,
θ
)
=
log
P
(
X
,
Z
∣
θ
)
q
(
Z
)
−
log
P
(
Z
∣
X
,
θ
)
q
(
Z
)
\begin{align} \log P(X|\theta)&=\log \frac{P(X,Z|\theta)}{P(Z|X,\theta)}\\ &=\log P(X,Z|\theta)-\log P(Z|X,\theta)\\ &=\log \frac{P(X,Z|\theta)}{q(Z)}-\frac{\log P(Z|X,\theta)}{q(Z)} \end{align}
logP(X∣θ)=logP(Z∣X,θ)P(X,Z∣θ)=logP(X,Z∣θ)−logP(Z∣X,θ)=logq(Z)P(X,Z∣θ)−q(Z)logP(Z∣X,θ)
-
第一步先从似然,引入隐变量 Z Z Z ,根据联合概率分布的公式进行改写;
-
然后通过对数的性质写开;
-
引入关于 Z Z Z 的概率分布 q ( Z ) q(Z) q(Z) ,两个对数里面同时除 q ( Z ) q(Z) q(Z)
-
然后两边同时求关于 q ( Z ) q(Z) q(Z) 的期望
左边 = ∫ Z q ( Z ) log P ( X ∣ θ ) d Z = log P ( X ∣ θ ) ∫ Z q ( Z ) d Z = log P ( X ∣ θ ) × 1 左边=\int_Zq(Z)\log P(X|\theta)dZ=\log P(X|\theta)\int_Zq(Z)dZ=\log P(X|\theta)\times1 左边=∫Zq(Z)logP(X∣θ)dZ=logP(X∣θ)∫Zq(Z)dZ=logP(X∣θ)×1
- 左边原来就与 Z Z Z 无关,相当于对常数求期望,不变
右边 = ∫ Z q ( Z ) log P ( X , Z ∣ θ ) q ( Z ) d Z − ∫ Z q ( Z ) log P ( Z ∣ X , θ ) q ( Z ) d Z = E L B O + K L ( q ( Z ) ∣ ∣ P ( Z ∣ X , θ ) ) \begin{align} 右边&=\int_Zq(Z)\log \frac{P(X,Z|\theta)}{q(Z)}dZ-\int_Zq(Z)\log\frac{ P(Z|X,\theta)}{q(Z)}dZ\\ &=ELBO+KL(q(Z)||P(Z|X,\theta))\\ \end{align} 右边=∫Zq(Z)logq(Z)P(X,Z∣θ)dZ−∫Zq(Z)logq(Z)P(Z∣X,θ)dZ=ELBO+KL(q(Z)∣∣P(Z∣X,θ))
-
右边也求期望后,后一项是 q ( Z ) q(Z) q(Z) 对 P ( Z ∣ X , θ ) P(Z|X,\theta) P(Z∣X,θ) 的相对熵,也就是 KL 散度。而前一项我们通常称为 ELBO (Evidence Lower BOund)证据下界。很明显的, KL 散度是恒正的,因此前一项 ELBO 是 log P ( X ∣ θ ) \log P(X|\theta) logP(X∣θ) 的一个下界。当且仅当后一项相对熵为零,即两个分布完全相同 q ( Z ) = P ( Z ∣ X , θ ( t ) ) q(Z)=P(Z|X,\theta^{(t)}) q(Z)=P(Z∣X,θ(t)) 时取到等号。
EM 算法的思想就是通过使得 ELBO 取得最大,从而使得对数似然 log P ( X ∣ θ ) \log P(X|\theta) logP(X∣θ) 也达到最大。即:
θ ^ = arg max θ E L B O = arg max θ ∫ Z q ( Z ) log P ( X , Z ∣ θ ) q ( Z ) d Z = arg max θ ∫ Z P ( X , Z ∣ θ ( t ) ) log P ( X , Z ∣ θ ) P ( X , Z ∣ θ ( t ) ) ) d Z = arg max θ ∫ Z P ( X , Z ∣ θ ( t ) ) [ log P ( X , Z ∣ θ ) − log P ( X , Z ∣ θ ( t ) ) ) ] d Z = arg max θ ∫ Z P ( X , Z ∣ θ ( t ) ) log P ( X , Z ∣ θ ) d Z \begin{align} \hat{\theta}&=\arg\max_{\theta}ELBO\\ &=\arg\max_{\theta}\int_Zq(Z)\log \frac{P(X,Z|\theta)}{q(Z)}dZ\\ &=\arg\max_{\theta}\int_ZP(X,Z|\theta^{(t)})\log \frac{P(X,Z|\theta)}{P(X,Z|\theta^{(t)}))}dZ\\ &=\arg\max_{\theta}\int_ZP(X,Z|\theta^{(t)})[\log P(X,Z|\theta)-\log P(X,Z|\theta^{(t)}))]dZ\\ &=\arg\max_{\theta}\int_ZP(X,Z|\theta^{(t)})\log P(X,Z|\theta)dZ\\ \end{align} θ^=argθmaxELBO=argθmax∫Zq(Z)logq(Z)P(X,Z∣θ)dZ=argθmax∫ZP(X,Z∣θ(t))logP(X,Z∣θ(t)))P(X,Z∣θ)dZ=argθmax∫ZP(X,Z∣θ(t))[logP(X,Z∣θ)−logP(X,Z∣θ(t)))]dZ=argθmax∫ZP(X,Z∣θ(t))logP(X,Z∣θ)dZ
- 当 q ( Z ) = P ( Z ∣ X , θ ( t ) ) q(Z)=P(Z|X,\theta^{(t)}) q(Z)=P(Z∣X,θ(t)) 时取到等号,代入进去
- 在经过一次变换后,我们发现中括号中后面一项与 θ \theta θ 无关,因此丢掉。注意,在迭代算法中 θ ( t ) , θ ( t + 1 ) \theta^{(t)},\theta^{(t+1)} θ(t),θ(t+1) 都是常数, θ \theta θ 才是变量
- 最终得到了 EM 的公式
EM算法的导出——Jensen不等式
下面我们再从 Jensen 不等式的角度来进行推导。
先来介绍一下 Jensen 不等式,这里只介绍 EM 算法推导需要用到的程度:
设 c = t a + ( 1 − t ) b c=ta+(1-t)b c=ta+(1−t)b,对于一个凸函数 f ( x ) f(x) f(x) 来说,有 f ( c ) = f ( t a + ( 1 − t ) b ) ≥ t f ( a ) + ( 1 − t ) f ( b ) f(c)=f(ta+(1-t)b)\ge tf(a)+(1-t)f(b) f(c)=f(ta+(1−t)b)≥tf(a)+(1−t)f(b) 。
我们如果取 t = 1 2 t=\frac{1}{2} t=21 ,则有 f ( 1 2 a + 1 2 b ) ≥ 1 2 f ( a ) + 1 2 f ( b ) f(\frac{1}{2}a+\frac{1}{2}b)\ge\frac{1}{2}f(a)+\frac{1}{2}f(b) f(21a+21b)≥21f(a)+21f(b) 。即对凸函数来说,均值的函数值大于等于函数值的均值。而在概率论中,均值就是期望,即有 f ( E ) ≥ E f ( ) f(\mathbb{E})\ge\mathbb{E}f() f(E)≥Ef()
下面开始推导:
log
P
(
X
∣
θ
)
=
log
∫
Z
P
(
X
,
Z
∣
θ
)
d
Z
=
log
∫
Z
P
(
X
,
Z
∣
θ
)
q
(
X
)
q
(
Z
)
d
Z
=
log
E
q
(
z
)
[
P
(
X
,
Z
∣
θ
)
q
(
Z
)
]
≥
E
q
(
z
)
log
[
P
(
X
,
Z
∣
θ
)
q
(
Z
)
]
\begin{align} \log P(X|\theta)&=\log\int_ZP(X,Z|\theta)dZ\\ &=\log\int_Z\frac{P(X,Z|\theta)}{q(X)}q(Z)dZ\\ &=\log\mathbb{E}_{q(z)}[\frac{P(X,Z|\theta)}{q(Z)}]\\ &\ge \mathbb{E}_{q(z)}\log[\frac{P(X,Z|\theta)}{q(Z)}]\\ \end{align}
logP(X∣θ)=log∫ZP(X,Z∣θ)dZ=log∫Zq(X)P(X,Z∣θ)q(Z)dZ=logEq(z)[q(Z)P(X,Z∣θ)]≥Eq(z)log[q(Z)P(X,Z∣θ)]
- 同样是引入隐变量 Z Z Z, 这次转换为对联合概率分布积分的形式;
- 变形,上下同乘 q ( X ) q(X) q(X);
- 我们通常讲积分写成期望的形式;
- log 函数是凸函数,这里使用 Jensen 不等式,其实这里得到的期望就是 ELBO
这里的等号当且仅当
P
(
X
,
Z
∣
θ
)
q
(
Z
)
\frac{P(X,Z|\theta)}{q(Z)}
q(Z)P(X,Z∣θ) 是常数时取到,即:
P
(
X
,
Z
∣
θ
)
q
(
Z
)
=
C
q
(
Z
)
=
1
C
P
(
X
,
Z
∣
θ
)
∫
Z
q
(
Z
)
d
Z
=
∫
Z
1
C
P
(
X
,
Z
∣
θ
)
d
Z
1
=
1
C
∫
Z
P
(
X
,
Z
∣
θ
)
d
Z
=
1
C
P
(
X
∣
θ
)
\frac{P(X,Z|\theta)}{q(Z)}=C\\ q(Z)=\frac{1}{C}P(X,Z|\theta)\\ \int_Zq(Z)dZ=\int_Z\frac{1}{C}P(X,Z|\theta)dZ\\ 1=\frac{1}{C}\int_ZP(X,Z|\theta)dZ=\frac{1}{C}P(X|\theta)
q(Z)P(X,Z∣θ)=Cq(Z)=C1P(X,Z∣θ)∫Zq(Z)dZ=∫ZC1P(X,Z∣θ)dZ1=C1∫ZP(X,Z∣θ)dZ=C1P(X∣θ)
- 做一个变形;
- 等式两边同时对 Z Z Z 求积分;
- 左边就是 1,右边把 Z Z Z 积掉;
- 得到 C = P ( X ∣ θ ) C=P(X|\theta) C=P(X∣θ),代回到原式中:
P ( X , Z ∣ θ ) q ( Z ) = P ( X ∣ θ ) q ( Z ) = P ( X , Z ∣ θ ) P ( X ∣ θ ) = P ( Z ∣ X , θ ) \frac{P(X,Z|\theta)}{q(Z)}=P(X|\theta)\\ q(Z)=\frac{P(X,Z|\theta)}{P(X|\theta)}=P(Z|X,\theta) q(Z)P(X,Z∣θ)=P(X∣θ)q(Z)=P(X∣θ)P(X,Z∣θ)=P(Z∣X,θ)
可以看到 q ( Z ) q(Z) q(Z) 就是后验 P ( Z ∣ X , θ ( t ) ) P(Z|X,\theta^{(t)}) P(Z∣X,θ(t)) ,这与我们在上一小节的结论是一致的,再后面就与上一小节一样了,不在赘述。