【机器学习】隐马尔可夫模型(上)——定义及相关概率计算

本文介绍了隐马尔可夫模型(HMM)的基础知识,包括马尔可夫过程的概念,以及HMM的定义。文章详细阐述了HMM中状态转移和观测输出的概率计算,通过实例展示了直接计算法和后向算法的运用,并验证了计算结果的正确性。下篇将探讨HMM的学习算法和预测算法。
摘要由CSDN通过智能技术生成

前言:隐马尔可夫模型(Hidden Markov Model, HMM)是可用于标注问题(即输入输出都是离散序列的监督学习问题)的统计学模型,描述由隐藏的马尔可夫链随机生成观测序列的过程,属于生成模型。本文首先介绍马尔可夫过程和隐马尔可夫模型的基本概念,然后分别叙述和实现隐马尔可夫模型的概率计算算法、学习算法以及预测算法。

一、马尔可夫过程
马尔可夫过程 (Markov Process),因俄罗斯数学家安德烈 · 马尔可夫而得名,代表数学中具有马尔可夫性质的离散随机过程。该过程中,每个状态的转移只依赖于之前的 n 个状态,这个过程被称为1个 n 阶的模型,其中 n 是影响转移状态的数目。我们称该过程具有马尔可夫性无后效性。通俗的说,在已经知道过程“现在”的条件下,其“将来”不依赖于“过去”。最简单的马尔科夫过程就是一阶过程,每一个状态的转移只依赖于其之前的那一个状态。注意这和确定性系统不一样,因为这种转移是有概率的,而不是确定性的。时间和状态都是离散的马尔可夫过程就称为马尔可夫链,记为 { Xn=X(n),n=0,1,2,} ,它可以看作时间集 T1={ 0,1,2,} 上对离散状态的马氏过程相继观察的结果。这些变量的取值范围,即它们所有可能取值的集合,被称为“状态空间”,记为 I={ a1,a2,} 。马尔可夫性通常可用条件分布律来表示:

P(Xm+n=aj|Xt1=ai1,Xt2=ai2,,Xm=ai)=P(Xm+n=aj|Xm=ai)

这个条件概率称为马氏链在时刻 m 处于状态 ai 条件下,在时刻 m+n 转移到状态 aj 状态转移概率。通常情况下我们研究的是 n=1 即单步转移的情况。一般来说,一个含有 N 的状态的一阶过程有 N2 种状态转移。所有概率可以用一个 状态转移概率矩阵表示:
p11p21pi1p12p22pi2p1jp2jpij

该矩阵有约束条件: pij0 , Nj=1pi
  • 1
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值