看了很多介绍EM算法的文章,但是他们都没有代码,所以在这里写出来。
Jensen 不等式
参考期望最大算法
Jensen不等式在优化理论中大量用到,首先来回顾下凸函数和凹函数的定义。假设
Jensen不等式描述如下:
- 如果
是凸函数,
是随机变量,则
是严格凸函数时,则
- 如果
是凹函数,
是随机变量,则
,当
是(严格)凹函数当且仅当
是(严格)凸函
![2e7208754ca77ef406afca28d96332a3.png](https://i-blog.csdnimg.cn/blog_migrate/dd1a0db47cbab3ece54c280b3665d9c8.png)
EM思想
极大似然函数法估计参数的一般步骤:
- 写出似然函数
- 取对数
- 求导数,并令导数为0
- 解似然方程
给定
需要对每个样本实例的每个可能的类别
如果
然而上式存在一个不确定的隐含变量(latent random variable)
由于不能直接最大化
EM算法通过引入隐含变量,使用MLE(极大似然估计)进行迭代求解参数。通常引