EM算法

一、EM算法推导需要用到的数学知识

1.1条件分布函数

条件分布的定义如下图所示,对于条件分布需要了解的是下面两个式子:

                                               f(x|y)=\frac{f(x,y)}{f(y)}

                                             f(x,y)=f(x|y)f(y)

1.2边缘分布函数

                                      p(y)=\sum_{x}p(x,y)=\sum_{x}p(y|x)p(x)

最后,要记住下面的公式在推导过程中,会用到

                               p(x|y)=\frac{p(x,y)}{p(y)}=\frac{p(y|x)p(x)}{p(y)}=\frac{p(y|x)p(x)}{\sum_{x}p(y|x)p(x)}

1.3 Jensen不等式

如果函数的二阶导数大于0则,

                                                                           E(f(X))\geq f(E(X))

如果函数的二阶导数小于0则,

                                                             \dpi{200} E(f(X))\leqslant f(E(X))

下面以二阶导数大于0为例,来理解Jensen不等式。x有0.5的概率取到a点,x有0.5的概率取到b点。E[x]是x取值的期望值。f(E(x))是期望的函数。E(f(x))是函数的期望。

 

二、EM算法

2.1符号说明

x为观测数据

z为隐含变量

Θ为参数

2.2 EM算法推导一

2.3、EM算法的推导二

 

2.4、EM算法收敛性的证明

EM算法的本质是利用极大似然估计的思想,所以要证明EM算法收敛只需要证明下一次迭代的Θ值比这一次迭代的Θ值大就可以了。即:

logp(x|\theta^{^{t+1}} )>=logp(x|\theta^{^{t}} )

参考资料:

                        1>机器学习白板推导(10)-EM算法

                        2>CS229-吴恩达机器学习

                        3>李航-统计机器学习

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值