统计学习方法笔记9—EM算法2

本文探讨了EM算法的收敛性,包括收敛定理9.1和9.2,证明了EM算法能保证观测数据的似然函数单调递增,并找到似然函数的极值点。接着,介绍了EM算法在高斯混合模型学习中的应用,详细阐述了高斯混合模型的概率分步模型,以及参数估计的EM算法步骤,包括E步中确定Q函数和M步中求取Q函数最大值的过程。
摘要由CSDN通过智能技术生成

9.2 EM算法的收敛性

收敛定理9.1

在这里插入图片描述
观测数据的似然函数单调递增

收敛定理9.2

在这里插入图片描述
EM算法是收敛性包含对数似然函数序列的收敛性和关于参数估计序列的收敛性,即一定可以通过迭代发现似然函数的极值点。

9.3 EM算法在高斯混合模型学习中的应用

9.3.1 高斯混合模型(概率分步模型)

在这里插入图片描述

9.3.2高斯混合模型参数估计的EM算法

1.明确隐变量,写出对数似然函数:
隐变量:反应观测数据的高斯分布分模型
在这里插入图片描述
完全数据:观测数据和隐变量数据

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值