HMM(隐马尔科夫模型)

一、定义

从定义可以看出,隐马尔可夫模型做了两个基本假设

二、 隐马尔可夫模型的三要素:初始状态概率矩阵\pi、状态转移概率矩阵A、观测概率矩阵 B

 三、隐马尔科夫的3个基本问题

 3.1  概率计算算法

3.1.1 直接计算法-------理论上可行,但计算量过大,而不可行

3.1.2 前向算法

首先,定义前向概率:

对于隐马尔可夫模型\lambda, 观测序列O,输出P(O|\lambda)的前向推导过程:

 第三步的推导过程:

P(O|\lambda ) = P(o_{1},o_{2},...,o_{T}|\lambda )=P(o_{1},o_{2},...,o_{T},i_{T}=q_{1}|\lambda )+P(o_{1},o_{2},...,o_{T},i_{T}=q_{2}|\lambda )+...+P(o_{1},o_{2},...,o_{T},i_{T}=q_{}|\lambda )

3.1.3 后向算法

首先,定义后向概率:

推导过程:

 3.2 学习算法

ps:个人理解,其实就是对模型参数的估计,对于HMM而言,本质上就是要对厨师状态概率、转移概率和观测概率的估计

学习算法主要分为两种,一种是监督学习算法,一种是非监督学习算法(Baum-Welch算法)

3.2.1 监督学习算法

监督学习算法往往需要

3.2.2 非监督学习算法------Baum-Welch算法

EM算法在此不复述,后续会单独以一章节单独介绍。

3.3  预测算法

预测算法有两种,一种是近似算法,一种是维特比算法,接下来着重介绍维特比算法!!!

3.3.1 维特比算法

维特比算法其实就是一种动态规划求解最优路径(概率最大路径)的算法,可概括为以下三点:

1、如果概率最大的路径经过某点,则从开始点到该点的子路径也一定是从开始到该点路径中概率最大的。
2、假定第i时刻有k个状态,从开始到i时刻的k个状态有k条最短路径,而最终的最短路径必然经过其中的一条。
3、根据上述性质,在计算第i+1状态的最短路径时,只需要考虑从开始到当前的k个状态值的最短路径和当前状态值到第i+1状态值的最短路径即可,如求t=3时的最短路径,等于求t=2时的所有状态结点的最短路径加上t=2到t=3的各节点的最短路径。

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值