NLP之HMM(隐马尔可夫)

什么是HMM?

隐马尔可夫模型(Hidden Markov Model,HMM)是统计模型,它用来描述一个含有隐含未知参数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数。然后利用这些参数来作进一步的分析,例如模式识别。

马尔可夫模型

假设我手里有三个不同的骰子。第一个骰子是我们平常见的骰子(称这个骰子为D6),6个面,每个面(1,2,3,4,5,6)出现的概率是1/6。第二个骰子是个四面体(称这个骰子为D4),每个面(1,2,3,4)出现的概率是1/4。第三个骰子有八个面(称这个骰子为D8),每个面(1,2,3,4,5,6,7,8)出现的概率是1/8

在这里插入图片描述

假设我们开始掷骰子,我们先从三种骰子里挑一个,挑到每一个骰子的概率都是1/3。然后我们掷骰子,得到一个数字,1,2,3,4,5,6,7,8中的一个。不停的重复上述过程,我们会得到一串数字,每个数字都是1,2,3,4,5,6,7,8中的一个。例如我们可能得到这么一串数字(掷骰子10次):1 6 3 5 2 7 3 5 2 4
这串数字叫做可见状态链 。 那么我们想要求 这些数字都是被哪个骰子 掷出来的呢? 骰子形成的状态链 叫隐含状态链 是需要我们推测的。比如,隐含状态链有可能是:D6 D8 D8 D6 D4 D8 D6 D6 D4 D8 表示的D6 哪种骰子 。

一般来说,HMM中说到的马尔可夫链其实是指隐含状态链,因为隐含状态(骰子)之间存在转换概率(transition probability)。在我们这个例子里,D6的下一个状态是D4,D6,D8的概率都是1/3。D4,D8的下一个状态是D4,D6,D8的转换概率也都一样是1/3。这样设定是为了最开始容易说清楚, 实际情况 可以根据需求定义。

在这里插入图片描述

但是隐含状态和可见状态之间有一个概率叫做输出概率(emission probability)。就我们的例子来说,六面骰(D6)产生1的输出概率是1/6。产生2,3,4,5,6的概率也都是1/6 。如图 我们同样可以对输出概率进行其他定义 。

在这里插入图片描述

HMM 就是对以上的 转换概率 , 可见状态 ,输出概率 隐含状态 我们实际应用往往是缺少部分信息 ,求解其它其它信息。

HMM 问题

求 隐含状态链

知道骰子有几种(隐含状态数量),每种骰子是什么(转换概率),根据掷骰子掷出的结果(可见状态链),我想知道每次掷出来的都是哪种骰子(求 隐含状态链)

我知道我有三个骰子,六面骰,四面骰,八面骰。我也知道我掷了十次的结果(1 6 3 5 2 7 3 5 2 4),我不知道每次用了那种骰子,我想知道最有可能的骰子序列

第一种解法,解最大似然路径问题

其实最简单而暴力的方法就是穷举所有可能的骰子序列 。

知道骰子有几种,每种骰子是什么,每次掷的都是什么骰子,根据掷骰子掷出的结果,求产生这个结果的概率。

在这里插入图片描述

解法无非就是概率相乘:
在这里插入图片描述在这里插入图片描述

P(D6->D8) 表示 D6 到 D8 的转换概率 。 D6–>1 表示D6输出1的概率

穷举出每一种骰子的方案 然后求出各种方案概率 ,谁大 就是谁 。

Viterbi algorithm 解法

首先,如果我们只掷一次骰子
在这里插入图片描述
看到结果为1.对应的最大概率骰子序列就是D4,因为D4产生1的概率是1/4,高于1/6和1/8.

把这个情况拓展,我们掷两次骰子

在这里插入图片描述

结果为1,6.这时问题变得复杂起来,我们要计算三个值,分别是第二个骰子是D6,D4,D8的最大概率。显然,要取到最大概率,第一个骰子必须为D4 (因为相乘 越乘越小尽量让所有的数字最大化才能得到最大值)。这时,第二个骰子取到D6的最大概率是

在这里插入图片描述
在这里插入图片描述
同样的,我们可以计算第二个骰子是D4或D8时的最大概率。我们发现,第二个骰子取到D6的概率最大。而使这个概率最大时,第一个骰子为D4。所以最大概率骰子序列就是D4 D6。

继续拓展,我们掷三次骰子:

在这里插入图片描述

同样,我们计算第三个骰子分别是D6,D4,D8的最大概率。我们再次发现,要取到最大概率,第二个骰子必须为D6。这时,第三个骰子取到D4的最大概率是

在这里插入图片描述
在这里插入图片描述
同上,我们可以计算第三个骰子是D6或D8时的最大概率。我们发现,第三个骰子取到D4的概率最大。而使这个概率最大时,第二个骰子为D6,第一个骰子为D4。所以最大概率骰子序列就是D4 D6 D4

首先,不管序列多长,要从序列长度为1算起,算序列长度为1时取到每个骰子的最大概率。然后,逐渐增加长度,每增加一次长度,重新算一遍在这个长度下最后一个位置取到每个骰子的最大概率。因为上一个长度下的取到每个骰子的最大概率都算过了,重新计算的话其实不难。当我们算到最后一位时,就知道最后一位是哪个骰子的概率最大了。然后,我们要把对应这个最大概率的序列从后往前推出来。

求 可见状态链 概率

还是知道骰子有几种(隐含状态数量),每种骰子是什么(转换概率),根据掷骰子掷出的结果(可见状态链),我想知道掷出这个结果的概率

穷举法

比如说掷骰子的结果是:

在这里插入图片描述

要算用正常的三个骰子掷出这个结果的概率,其实就是将所有可能情况的概率进行加和计算。同样,简单而暴力的方法就是把穷举所有的骰子序列,还是计算每个骰子序列对应的概率,但是这回,我们不挑最大值了,而是把所有算出来的概率相加,得到的总概率就是我们要求的结果。这个方法依然不能应用于太长的骰子序列(马尔可夫链)

前向算法(forward algorithm)

首先,如果我们只掷一次骰子:

看到结果为1.产生这个结果的总概率可以按照如下计算,总概率为0.18:

在这里插入图片描述
把这个情况拓展,我们掷两次骰子:
在这里插入图片描述
看到结果为1,6.产生这个结果的总概率可以按照如下计算,总概率为0.05:

在这里插入图片描述

继续拓展,我们掷三次骰子:

在这里插入图片描述
看到结果为1,6,3.产生这个结果的总概率可以按照如下计算,总概率为0.03:

在这里插入图片描述

同样的,我们一步一步的算,有多长算多长,再长的马尔可夫链总能算出来的。用同样的方法,也可以算出不正常的六面骰和另外两个正常骰子掷出这段序列的概率,然后我们比较一下这两个概率大小,就能知道你的骰子是不是被人换了。

求 输出概率

知道骰子有几种(隐含状态数量),不知道每种骰子是什么(隐含状态),观测到很多次掷骰子的结果(可见状态链),转移概率也已知,我想反推出每种骰子是什么( 求输出概率)

EM 算法求解

这个使用EM 算法求解

第一个例子我们将引用 Nature Biotech 的 EM tutorial 文章中的例子。

假设有两枚硬币 A 和 B,他们的随机抛掷的结果如下图所示:

在这里插入图片描述
我们很容易估计出两枚硬币抛出正面的概率:
在这里插入图片描述

现在我们加入隐变量,抹去每轮投掷的硬币标记:

在这里插入图片描述
碰到这种情况,我们该如何估计Qa和 Qb的值?

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

从期望的角度来看,对于第一轮抛掷,使用硬币 A 的概率是 0.45,使用硬币 B 的概率是 0.55。同理其他轮。这一步我们实际上是估计出了 Z 的概率分布,这部就是 E-Step。

结合硬币 A 的概率和上一张投掷结果,我们利用期望可以求出硬币 A 和硬币 B 的贡献。以第二轮硬币 A 为例子,计算方式为:
在这里插入图片描述
于是我们可以得到:
在这里插入图片描述

然后用极大似然估计来估计新的在这里插入图片描述

这步就对应了 M-Step,重新估计出了期望值。

如此反复迭代,我们就可以算出最终的参数值

应用到 刚才的实例 假如 我们有很多 观察的 1,2,6 这样的序列 。 转换概率已知 我们可以求出 每个隐含状态 变成 1 的概率 比如 0.5 就可以得到 是 两面体 , 0.3 就是三面体。

参考文献

https://www.zhihu.com/question/20962240

https://zhuanlan.zhihu.com/p/78311644

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值