EM期望最大化算法直观理解

学习机器学习算法最大的痛苦就是各种数学公式的推导和记忆,而且你会推导和记忆清楚了这些数学公式之后,过个一两周就会忘记了,因此我一般学习机器学习的算法都会尝试从直观上进行理解这些公式的含义,以便于能更好地长时间记忆这些公式,同时能更好地利用这些公式。

EM算法

不直接贴公式推导啥的,直观理解上这个算法的步骤就是
定义观测数据为X,模型参数为theta
1、对于模型参数先给个初始值theta(0)
2、确定隐变量z以及z的可能取值(离散的情形)
3、设当前迭代次数为i,求出隐变量z的条件概率p(z|x, theta(i-1)),以及在此概率下的期望 logp(x,z|theta)*p(z|x, theta(i-1))
4、最大化步骤3中的期望
5、循环步骤3和步骤4

具体的例子

高斯混合分布
鲍姆韦尔奇算法

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值