em算法 实例 正态分布_EM算法解GMM

看了很多介绍EM算法的文章,但是他们都没有代码,所以在这里写出来。

Jensen 不等式

参考期望最大算法

Jensen不等式在优化理论中大量用到,首先来回顾下凸函数和凹函数的定义。假设

是定义域为实数的函数,如果对于所有的
的二阶导数大于等于0,那么
是凸函数。当
是向量时,如果hessian矩阵
是半正定(即
是凸函数)。如果,
的二阶导数小于0或者
就是凹函数。

Jensen不等式描述如下:

  1. 如果
    是凸函数,
    是随机变量,则
    是严格凸函数时,则
  2. 如果
    是凹函数,
    是随机变量,则
    ,当
    是(严格)凹函数当且仅当
    是(严格)凸函

2e7208754ca77ef406afca28d96332a3.png

EM思想

极大似然函数法估计参数的一般步骤:

  1. 写出似然函数
  2. 取对数
  3. 求导数,并令导数为0
  4. 解似然方程

给定

个训练样本
,假设样本之间相互独立,要拟合模型
。根据分布我们可以得到如下的似然函数:

需要对每个样本实例的每个可能的类别

求联合概率分布之和,即

如果

是已知的,那么使用极大似然估计参数
会很容易。

然而上式存在一个不确定的隐含变量(latent random variable)

,这种情况下EM算法就派上用场了。

由于不能直接最大化

,所以只能不断地建立
的下界(E-step),再优化下界。一直迭代直到算法收敛到局部最优解。

EM算法通过引入隐含变量,使用MLE(极大似然估计)进行迭代求解参数。通常引

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值