《统计学习方法》笔记(9):EM算法和隐马尔科夫模型

EM也称期望极大算法(Expectation Maximization),是一种用来对含有隐含变量的概率模型进行极大似然估计的迭代算法。该算法可应用于隐马尔科夫模型的参数估计。

 

1、含有隐含参数的概率模型举例?

三硬币模型:A、B、C三枚硬币,这些硬币投出正面的概率分别为π、p、q。进行如下硬币实验,先投硬币A,如果为正面则投硬币B,如果为反面则投硬币C。最终出现的正面则记为1,出现反面则记为0;独立的重复n次实验(取n=10),出现的结果如下:

{1,1,0,1,0,1,0,1,1}

假设只能观测到投掷硬币的结果,无法观测其过程,请估计三个硬币正面出现的概率。

解释:该模型中A硬币投掷结果记为隐含变量,该模型的参数为π、p和q,即模型可以记为θ=(π,p,q)。

 

2、EM算法的一般步骤?

以下四步中,关键的是第二步确定Q函数:

1)选择参数初值θ

2)E步:确定Q函数,Q=ΣlogP(Y,Z|θ)log(Z|Y,θi)

3)M步:估计使得Q函数最大θ值,作为θ(i+1)

4)重复迭代,直到参数θ收敛。

 

3、EM算法的特点?

1)EM算法对初始值敏感,初值不同可能导致算得的结果不同。

2)可以保证参数估计序列收敛到对数似然函数序列的稳定点,不能保证收敛到极大值点。

 

4、什么是隐马尔科夫模型?

隐马尔科夫模型是关于时序的概率模型,描述的是由隐藏的马尔科夫链生成不可观测的状态序列,再根据状态序列生成对应观测序列的过程。

 

5、隐马尔科夫模型可求解的三类问题?

1)概率估计问题,已知观测序列O,计算在模型λ=(A,B,π)下O出现的概率P(O|λ)。

2)学习问题,已知观测序列O,用EM算法求解使得P(O|λ)最大的模型参数λ。

3)预测问题,已知观测序列O,预测使得P(O|I)最大的状态序列I。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值