EM算法理解

根据江老师的课件理解:
EM是要在包含complete data和missing data的情况下利用层次模型解决混合模型的问题。
注意E和M分别都有两步:
E1:对于all data, 计算参数 λ , μ , σ \lambda, \mu, \sigma λ,μ,σ的log likelihood的Expection。之所以叫Expection,是因为对于每个类别yi,我们算的都是E[yi=k]而不是用I[yi=k]。这其实是一步很关键的理解。我们对于missing data不用给他打标签,而只需要在E的第二步算出它的每个k的E[yi=k]即可,然后把所有的data的标签加权算总共的E[yi=k]:
在这里插入图片描述
E的第二步:对于所有的missing data,按照当前的参数 λ , μ , σ \lambda, \mu, \sigma λ,μ,σ算出每个k的E[yi=k]:
在这里插入图片描述
M的第一步:算参数 λ \lambda λ,因为它可以和其他参数分离:
在这里插入图片描述
M的第二步:算分布的参数 μ , σ \mu, \sigma μ,σ
在这里插入图片描述
注意自始至终,我们算M的地方都只用了E的第一步得到的式子。E的第二步的式子不参与M步的计算,他只是用来给missing data算E每个k的E[yi=k]的。其实更好的理解应该是E的第一步应该是第二步,第二步是第一步

update 2020/11/11:
我们在拥有样本、上一次估计的参数之后,能够写出似然函数了,为啥还有E这个似然函数呢?直接M它不行吗?
答:这个似然函数是层次模型下的似然函数,包含X和Y。当我们获得X和参数之后,这个函数将是Y的函数L(Y),则E它相当于把它

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值