统计学习方法9- EM算法

  • 非监督学习、生成模型

  • EM算法应用场景:含有隐变量的参数估计问题

  • EM解析(以高斯分布为例):
    - 假设有一批数据x。
    - x可能满足多种不同的模型,这些模型的分布服从高斯分布的概率密度函数形式(高斯混合模型)。这时,问题中就包含了三个变量:取到某种模型的概率w,以及在该高斯分布下的参数μ和σ \sigmaσ。我们最终求的是最好的模型的参数μ和σ \sigmaσ,所以取到某种模型的概率w就相当于是隐变量。
    - 若根据极大似然估计方法,该问题求解可以描述为:

  • 一般性的:EM算法的E步,也就是求期望过程,求的是根据数据和当前参数对隐变量的期望的估计。
    EM算法的M步,是迭代数据和当前参数,求E步期望最大的过程。

参考:
https://blog.csdn.net/Smile_mingm/article/details/108562277?spm=1001.2014.3001.5501

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值