机器学习-算法-有监督学习:EM(最大期望值算法)<=> MLE(最大似然估计法)【关系类似“梯度下降法”<=>“直接求导法”】【EM&“梯度下降”:先初始化一个随机值,然后通过迭代不断靠近真实值】

本文深入介绍了最大似然估计法及其在寻找模型参数中的应用,接着详细讲解了EM(最大期望值)算法,这是一种在数据缺失或存在隐变量时寻找参数估计的迭代方法。通过实例分析,展示了EM算法如何逐步逼近真实值,并与最大似然估计法进行了类比。最后,通过一个硬币投掷问题展示了EM算法的初级版和进阶版,阐述了其如何通过迭代不断优化参数估计,直至收敛。
摘要由CSDN通过智能技术生成

机器学习-算法-有监督学习:EM(最大期望值算法)<=> MLE(最大似然估计法)【关系类似“梯度下降法”<=>“直接求导法”】【EM&“梯度下降”:先初始化一个随机值,然后通过迭代不断靠近真实值】)<==> MLE(Maximum Likelihood Estimat/最大似然估计法)

最大期望算法(Expectation-maximization algorithm,又译为期望最大化算法),是在概率模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于无法观测的隐性变量。
它是一个基础算法,是很多机器学习领域算法的基础,比如隐式马尔科夫算法(HMM)等等。

最大期望算法经过两个步骤交替进行计算:

  • 第一步是计算期望(E / Expectation),利用对隐藏变量的现有估计值,计算其最大似然估计值
  • 第二步是最大化(M / Maximum),最大化在E步上求得的最大似然值来计算参数的值。M步上找到的参数估计值被用于下一个E步计算中,这个过程不断交替进行。

EM算法受到缺失思想影响,最初是为了解决数据缺失情况下的参数估计问题,其算法基础和收敛有效性等问题在Dempster、Laird和Rubin三人于1977年所做的文章《Maximum likelihood from incomplete data via the EM algorithm》中给出了详细的阐述。其基本思想是:

  • 首先根据己经给出的观测数据,估计出模型参数
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值