Hidden Markov Models Forward Backward算法

本文介绍了Hidden Markov Models (HMMs)中用于参数学习的Forward-Backward算法。首先讲解了Backward算法,定义了backward变量,并详细描述了其计算过程。接着,阐述了Forward-Backward算法,定义了和变量,通过它们来重新评估HMMs的参数。最后,提到了参数更新的约束条件和收敛判断标准,建议读者通过阅读相关代码加深理解。
摘要由CSDN通过智能技术生成


        Hidden Markov Models 的问题3是给定一个HMMs的模型和一个输出观察序列O,如何调整模型的参数使得产生这一序列的概率最大?我理解这就是一个机器学习的问题,因为有时候HMMs的模型我们是不知道的,我们随机得到一个初始的,通过训练数据进行HMMs模型的参数调整,最终学习出一个局部最优的HMMs(无法得到全局的最优,只能得到局部的最优)。解决的算法是Baum-Welch(即Forward Backward算法)。

        在介绍Forward Backward算法之前,先介绍一下Backward算法。

        1. Backward算法

        定义backward变量,定义为在t时刻状态为的条件下,局部观察序列的概率。

       

        t时刻与t+1时刻,backward变量关系如图1所示 :

  图1

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 8
    评论
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值