EM算法实验及理论

EM算法,全称Expectation Maximization Algorithm,译作最大期望化算法或期望最大算法,它是一种迭代算法,用于含有隐变量(hidden variable)的概率参数模型的最大似然估计或极大后验概率估计。

例子

下面先通过一个例子实验,来直观感受对含有隐藏变量概率模型的参数估计。

这里用PYTOHN 写一个可自定义生成概率的01分布:

例如 index = random_index([70, 30]) 则为 P(index=0) = 0.7 , P(index=1) = 0.3。生成100个样本:

[0, 1, 0, 1, 0, 1, 1, 1, 0, 1, 0, 1, 0, 0, 0, 0, 0, 1, 0, 0, 1, 0, 1, 0, 0, 1, 0, 0, 1, 0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 1, 0, 1, 0, 0, 0, 1, 1, 0, 1, 0, 0, 0, 0, 0, 1, 0, 0, 1, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 1, 0]

可以统计到 1 的个数为28个。

现在实验用两个分布 H0(random_index([70, 30])) , H1(random_index([40, 60])), 每次用一个分布实验,共五次实验,如:

实验 0个数1个数统计
H07327P(1) = 0.27
H13664P(1) = 0.64
H06733P(1) = 0.33
H14357P(1) = 0.57
H07129P(1) = 0.29

                                                                                              图 1

假设我们不知真实分布,那么通过上图的随机过程可统计,可得

P( 1 / H0) =  (0.27 + 0.33 + 0.29) / 3 = 0.2966...                 P( 1 / H1) =  (0.64 + 0.57) / 2 = 0.605

以上实验,如果我们存在两个分布,但不知其分布参数,但如果观察的随机样本是可知由哪个分布产生的,那么统计,就可以各个分布的参数。

上述实验模型的变量仅仅是观测变量,通过给定观察数据便可以估计模型参数。

但通常遇到问没这么简单,如我们观察的到随机样本,它是在一个有个多分布组合的系统中产生的,而且我们无法观察到时由哪个分布(或者由怎样的权重组合的分布)产生的,也就是说系统存在隐藏变量决定了分布的出现情况。

对于这种情况,通过观察样本,直接估计整个系统的模型很难,比如对于一个GMM 模型:

                                                      GMM = C_{0} * G_{0} + C_{1} * G_{1} + C_{2} * G_{2}

                                                                  C_{0} , C_{1}, C_{2} ......C_{n}= F(Z)

要高斯变量的分布 和 Z变量的F 直接去估计出来可能无法解析, 因此我们只能以某个启发式方法,去估计, 以可以准确描述我们的观察数据。

在下面的实验中,我们不知每一次实验是H0 还是 H1,那么这时不仅有观察变量,是观察的出现的1 或 0, 还有隐藏变量,表示每次实验是H0 还是 H1 可能结果。

实验 0个数1个数统计
H?7327P(1) = 0.27
H?3664P(1) = 0.64
H?6733P(1) = 0.33
H?4357P(1) = 0.57
H?7129P(1) = 0.29

                                                                                             图 2

如上述实验,我们假设系统存在两个不同分布 H0 和 H1 以某种可能组合。

假设 初始值 P(1 / H0) = 0.2 , P(1/ H1) = 0.7.

实验H0H1
10.8`(7.3)*0.2`(2.7) = 0.0025430.3`(7.3) * 0.7`(2.7)=0.000058
20.8`(3.6) *0.2`(6.4) = 0.0000500.3`(3.6) * 0.7`(6.4)=0.005004
30.8`(6.7) *0.2`(3.3) = 0.0011060.3`(6.7) * 0.7`(3.3)=0.000032
40.8`(4.3) *0.2`(5.7) = 0.0000390.3`(4.3) * 0.7`(5.7)=0.000739
50.8`(7.1) *0.2`(2.9) = 0.0019270.3`(7.1) * 0.7`(2.9)=0.000069

                                                                                              图 3

此时估计出了隐藏变量

实验H0H1
10.970.03
20.010.99
30.970.03
40.050.95
50.960.04

                                                                                             图  4

上面估计出的隐藏变量的很准确的反应真实情况,主要是因为我们的模型初始化值很接近真实参数。

接下来用估计的隐藏变量,及观察样本统计 H0  和 H1 各自的分布:

对于 H0 :

实验01
10.97 * 730.97 * 27
20.01 * 36 0.01 * 64
30.97 * 670.97 * 33
40.05 * 430.05 * 57
50.96 *  710.96 * 29

                                                                                          图  5

P(0/ H0) = 206.47/ (206.47+ 89.53) = 0.6975 , P(1/ H0) = 1 - P(0/ H0) = 0.3025

同理,对于H1

实验01
10.03 * 730.03 * 27
20.99 * 36 0.99 * 64
30.03 * 670.03 * 33
40.95 * 430.95 * 57
50.04 *  710.04 * 29

                                                                                           图  6

P(0/  H1) = 83.53/(83.53 + 120.47) = 0.4094,  P(1/ H1) = 1 - P(0 / H1) = 0.5906

由上两图统计以看出,H0 和 H1 的参数由初始值,经过一轮优化更新接近了真实值。例如对于H1, 我们估计隐藏变量 ,第一次实验出现H1的 P1(H1) = 0.03 , 类似 P2(H1) = 0.99, P3(H1) = 0.03, P4(H1) = 0.95 , P5(H1)= 0.04  分别作为五次实验为H1 的权重来统计所有样本,由于隐藏变量估计准确,所有用来加权估计所有样本对其他某个分布的参数也将更接近真实分布。

 

算法理论

 

一般的,用Y 表示观测随机变量的数据, Z表示隐藏随机变量的数据。 Y 和 Z 称为完全数据(complete data), 观测数据Y 称为不完全数据(incomplete data). 对于其似然是  P(Y;\Theta )  , 而完全数据的似然是 P(Y, Z;\Theta ) 。目标是极大化观测数据(不完全数据)Y 关于参数的对数似然函数,即极大化:

                                                                               L(\Theta ) = logP(Y ; \Theta )

 

假设观察样本是相互独立的,那么       L(\Theta ) = logP(Y ; \Theta ) = \sum_{i}logP(y_{i} ; \Theta ) ,  其中 y_{i}  为 Y 中第 i 个样本。

假设在观察样本 y_{i} 的隐藏变量为  Z = {z_{0} , z_{1}, ......, z_{j}}  , 则完全数据的极大似然为:

 

                                                           L(\Theta ) = logP(Y ; \Theta ) = \sum_{i}log \sum_{j}P(y_{i}, z_{j} ; \Theta )

则上面式子与前面的例子对应,如图2 ,样本的是相互独立的,那么联合概率为独立样本概率相乘,取对数则变为所有样本的对

数似然值相加  , 即  \sum_{i}logP(y_{i} ; \Theta )  ; 而图5 图6 是考虑所有可能的隐藏变量可能权重相加(期望)得到似然值,即

\sum_{i}log \sum_{j}P(y_{i}, z_{j} ; \Theta ) 。 可看出例子的对模型参数估计包含两个步骤:

1 通过观察样本和当前的模型参数(如初始值), 估计隐藏变量;

2 在第一步估计出隐藏变量值,通过观察样本,极大似然估计模型参数。

上述两个步骤不断重复迭代,直至模型收敛。

EM 算法的思想也如例子一样,不是直接极大化 L(\Theta ) , 而是不断建立 L(\Theta ) 的下界函数,然后然后优化下界,循环迭代直至模型收敛,其本质思想是固定前的模型的观察变量的参数,估计隐藏变量,再固定隐藏变量,估计观察变量的参数,循环迭代,直至收敛到局部最优解。其推导如下:

                                                              L(\Theta ) = logP(Y ; \Theta ) = \sum_{i}log \sum_{j}P(y_{i}, z_{j} ; \Theta )\: \: \, \, \, \, \, \, \, \, \, \, (1)  

公式(1) 中非线性函数log 中里面又有加和,直接求导求极值非常困难,应该想办法解决这种情况。因此,对于每个观察样本 y_{i} , 用 Q_{i} 表示该样本下隐藏变量

的分布, Q_{i} 满足     \sum_{j}Q_{i}(z_{j}) = 1, Q_{i}(z_{j}) > 0 , 则 (1) 式可转换为:

                                                          L(\Theta ) = logP(Y ; \Theta ) = \sum_{i}log \sum_{j}\frac{Q_{i}(z_{j}) P(y_{i}, z_{j} ; \Theta )}{Q_{i}(z_{j})}\, \, \, \, \, \, \, \, (2) 

根据jenson 不等式可变换化为: 

                                                           L(\Theta ) = logP(Y ; \Theta ) \geq \sum_{i} \sum_{j}Q_{i}(z_{j})log\frac{ P(y_{i}, z_{j} ; \Theta )}{Q_{i}(z_{j})}\, \, \, \, \, \, \, \, (3)

 

公式(2)将  L(\Theta ) = logP(Y / \Theta )  解析表达出两个不同的分布 , 公式(3)为了求解,变化为公式(2)的下界函数,只要能极大化下界函数,那么原始函数也会不断极大化。令下界函数为:

                                                               J(Z, \Theta ) = \sum_{i} \sum_{j}Q_{i}(z_{j})log\frac{ P(y_{i}, z_{j} ; \Theta )}{Q_{i}(z_{j})} \, \, \, \, \, \, \, \, \, (4)

那么要想下界函数可能极大化L(\Theta ) = logP(Y / \Theta ),  其求解思想可以是:

找到令 J(Z, \Theta ) = L(\Theta )  的 Z' , 即 J(Z', \Theta ) ;然后再寻找\Theta =\Theta ' 使得 J(Z', \Theta ) 极大化,即 J(Z', \Theta' ) , 那么此时得到的参数(Z', \Theta' ) 带入 公式(2)便极大化了 L(\Theta ) = logP(Y / \Theta )

 

因此,找到令 J(Z, \Theta ) = L(\Theta )  的 Z' , 即 J(Z', \Theta ) :

根据 jenson 不等式的性质,对于公式(2)中的期望  \sum_{j}\frac{Q_{i}(z_{j}) P(y_{i}, z_{j} ; \Theta )}{Q_{i}(z_{j})} ,  当且仅当  \frac{P(y_{i}, z_{j} ; \Theta )}{Q_{i}(z_{j})}  为常数时,公式(3)中的等号成立,即:

                                                                                    \frac{P(y_{i}, z_{j} ; \Theta )}{Q_{i}(z_{j})} = c  , 则

                                                                       \sum_{j}P(y_{i}, z_{j} ; \Theta ) = \sum_{j}Q_{i}(z_{j})\cdot c

                                                                  \Rightarrow \sum_{j}P(y_{i}, z_{j}; \Theta )} = c\varpi

因此,                                     Q_{i}(z_{j}) = \frac{P(y_{i}, z_{j}; \Theta )}{\sum_{j}P(y_{i}, z_{j}; \Theta )} = \frac{P(y_{i}, z_{j}; \Theta )}{ P(y_{i}; \Theta )} = P(z_{j}/ y_{i}; \Theta ) 。

上述即EM算法的E步骤。从而得到EM 算法:

E 步骤: 根据当前的模型参数,估计隐藏变量 Z 的后验概率, 

                                                                                 Q_{i}(z_{j}) = P(z_{j}/ y_{i}; \Theta )

M 步骤: 根据E步骤得到的 Q_{i}(z_{j}) , 对 J(Z', \Theta ) 极大似然估计:

                                                  arg\, \, \underset{\Theta}{max} J(Z', \Theta ) =arg\, \, \underset{\Theta}{max} \sum_{i} \sum_{j}Q_{i}(z_{j}')log\frac{ P(y_{i}, z_{j}'; \Theta )}{Q_{i}(z_{j}')}

对模型初始化参数,然后通过迭代 E步骤和 M步骤,对模型极大似然求解。

 

GMM 参数估计

 

设 GMM 的对数似然函数为:

                                                                L(\Theta ) = \sum _{i}log p(y_{i}; \Theta ) = \sum _{i}log p(y_{i}; \varpi ,\phi )

其中 \varpi为混合高斯分布的权重参数,即 \varpi =(w_{1}, w_{2},......,w_{K})\phi = (u_{1}, \sigma_{1}, u_{2}, \sigma_{2}, ......, u_{K}, \sigma_{K})

根据 EM算法的E步,估计隐变量的后验概率,即在在当前分布下观测样本y_{i}属于第j个高斯分布的概率:

                                                 \gamma _{ij} = Q_{i}(z_{j}) =P(z_{j}/y_{i}; \Theta )

                                                                       =\frac{p(z_{j},y_{i};\Theta )}{\sum _{j}p(z_{j},y_{i};\Theta )}=\frac{p(y_{i}/z_{j};\Theta )p(z_{j };\Theta)}{\sum _{j}p(y_{i}/z_{j};\Theta) p(z_{j };\Theta)}

                                                                      =\frac{g(y_{i};\phi _{j})w_{j}}{\sum_{j}g(y_{i};\phi _{j})w_{j} }

接下来是M步,极大似然估计模型参数,即对各参数求导:

将E步的\gamma _{ij} 和高斯分布 p(y) = \frac{1}{2\pi |\sum_{\sigma } | ^{1/2}}exp(-\frac{(y-u)^{T}\sum ^{-1}_{\sigma }(y-u)}{2}), 带入:

                                                               \sum_{i} \sum_{j}Q_{i}(z_{j}')log\frac{ P(y_{i}, z_{j}'; \Theta )}{Q_{i}(z_{j}')}

                                                          =\sum_{i} \sum_{j}Q_{i}(z_{j}')log\frac{ P(y_{i}/z_{j}'; \Theta )P(z_{j}';\Theta )}{Q_{i}(z_{j}')}

                                                          =\sum_{i} \sum_{j}\gamma _{ij}log\frac{\frac{1}{2\pi |\sum_{\sigma j } | ^{1/2}}exp(-\frac{(yi-uj)^{T}\sum ^{-1}_{\sigma j }(yi-uj)}{2})w_{j}}{\gamma _{ij}}\, \, \, \, \, \, \, \, \, (5)

 

公式(5)先对均值U 求导:

                                                            \nu _{uj}(5)=-\nu _{uj}\sum _{i}\gamma _{ij} \frac{(yi-uj)^{T}\sum ^{-1}_{\sigma j }(yi-uj)}{2}

                                                                       =\frac{1}{2}\sum _{i}\gamma _{ij} \cdot -\nu _{uj}\left \{(yi-uj)^{T}\sum ^{-1}_{\sigma j }(yi-uj) \right \}

                                                                       =\frac{1}{2}\sum _{i}\gamma_{ij}\cdot \nu_{uj}\left \{ 2uj^{T}\sum ^{-1} _{\sigma j }yi -uj^{T}\sum ^{-1} _{\sigma j }uj^{T} \right \}

                                                                      =\sum _{i}\gamma_{ij} ( \sum ^{-1} _{\sigma j }yi -\sum ^{-1} _{\sigma j }uj )\, \, \, \, \, \, \, \, \, \, (6)

令公式(6) = 0, 则可得:

                                                                              u_{j} = \frac{\sum _{i}\gamma _{ij}y_{i}}{\sum _{i}\gamma _{ij}}

同理可得:

                                                                              w_{j}=\frac{1}{m}\sum^{m} _{i}\gamma _{ij}

                                                                             \sum _{\sigma j} = \frac{\sum ^{m}_{i=1}\gamma _{ij}(yi-uj)^{T}(yi-uj)}{\sum ^{m}_{i=1}\gamma _{ij}}

 

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值