机器学习基础算法35-HMM

本文介绍了隐马尔科夫模型(HMM)的基础知识,包括HMM的定义,它在语音识别、NLP等领域的应用,以及解决HMM的概率计算问题,如直接计算法、前向算法和后向算法。
摘要由CSDN通过智能技术生成

一、隐马尔科夫模型

1.HMM定义

隐马尔科夫模型可用于标注问题,在语音识别、NLP、生物信息、模式识别等方面被实践证明是有效算法。
HMM是关于时序的概率模型,描述由一个隐藏的马尔科夫链生成不可观测的状态随机序列,再由各个状态生成观测随机序列的过程。
状态序列: HMM模型随机生成的状态随机序列
观测序列: 每个状态生成一个观测,由此产生的观测随机序列
序列的每一个位置可看做是一个时刻

隐马尔科夫模型贝叶斯网络:
在这里插入图片描述

1什么样的问题需要HMM模型

在Z1和Z2不可观测的前提下,X1和X2不独立

1什么样的问题需要HMM模型
首先我们来看看什么样的问题解决可以用HMM模型。

使用HMM模型时我们的问题一般有这两个特征:

1)我们的问题是基于序列的,比如时间序列,或者状态序列。

2)我们的问题中有两类数据,一类序列数据是可以观测到的,即观测序列;而另一类数据是不能观察到的,即隐藏状态序列,简称状态序列。

有了这两个特征,那么这个问题一般可以用HMM模型来尝试解决。这样的问题在实际生活中是很多的。比如:我现在在打字写博客,我在键盘上敲出来的一系列字符就是观测序列,而我实际想写的一段话就是隐藏序列,输入法的任务就是从敲入的一系列字符尽可能的猜测我要写的一段话,并把最可能的词语放在最前面让我选择,这就可以看做一个HMM模型了。再举一个,我在和你说话,我发出的一串连续的声音就是观测序列,而我实际要表达的一段话就是状态序列,你大脑的任务,就是从这一串连续的声音中判断出我最可能要表达的话的内容。

2.HMM模型定义

对于HMM模型,首先我们假设Q是所有可能的隐藏状态的集合,V是所有可能的观测状态的集合,即:
在这里插入图片描述
其中,N是可能的隐藏状态数,M是所有的可能的观察状态数。

对于一个长度为 T 的序列, I 对应的状态序列, O是对应的观察序列,即:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3.HMM举例(中看不中用)

在这里插入图片描述
在这里插入图片描述

HMM的三个问题

在这里插入图片描述

4.概率计算问题

1.直接计算法

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.前向算法(重要)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值