nlp基础—6.EM算法

EM算法是一种迭代法,常用于含有隐变量的概率模型的参数估计。它包括E步(期望)和M步(极大化)。E步计算期望,M步则通过上一步的期望值极大化参数估计。虽然EM算法可能不保证全局最优,但其迭代过程简洁。本文还介绍了EM算法在高斯混合模型(GMM)中的应用。
摘要由CSDN通过智能技术生成

一、EM算法

  EM算法是一种迭代算法,EM算法的每次迭代由两步组成:E步,求期望;M步:求极大。EM算法就是在含有隐变量的概率模型中寻找参数极大似然估计的算法,其中概率模型依赖于无法观测的隐性变量。EM算法经过两个步骤交替进行计算:
首先,初始化待估计的值

  • 第一步是计算期望(E)),利用迭代参数估计值,计算其极大似然估计值;
  • 第二步极大化(M),极大化在E步上求得极大似然估计值来计算参数的值。

M步上找到的参数估计值被用于下一个E步计算中,这个过程不断交替进行。
  下面介绍EM算法。
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
EM算法只能保证每次迭代都比上一次得到的要好,但不能保证得到全局最优解。
  EM算法的缺点:

  1. 不能保证全局收敛
  2. 参数的初值可以任意选取,EM算法对初值是敏感的

EM算法的优点:迭代过程简单直接

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值