隐马尔科夫模型的三个基本问题

前面简单介绍了隐马尔科夫模型,下面继续看看HMM的三个基本问题。

问题一、评估观察序列概率

问题描述:假设我们已知HMM模型的参数 λ = ( A , B , Π ) \lambda = (A, B, \Pi) λ=(A,B,Π),其中A是隐藏状态转移概率的矩阵,B是观测状态生成概率的矩阵, Π \Pi Π是隐藏状态的初始概率分布。同时给定一个观测序列 O = { o 1 , o 2 , . . . o T } O =\{o_1,o_2,...o_T\} O={o1,o2,...oT},现在我们要求这个观测序列?在模型?下出现的条件概率 P ( O ∣ λ ) P(O|\lambda) P(Oλ)

1. 暴力求解法

我们可以列举出所有可能出现的长度为T的隐藏序列 I = { i 1 , i 2 , . . . , i T } I = \{i_1,i_2,...,i_T\} I={i1,i2,...,iT},分别求出这些隐藏序列与观测序列O的联合概率分布 P ( O , I ∣ λ ) P(O,I|\lambda) P(O,Iλ),这样我们就可以很容易的求出边缘分布 P ( O ∣ λ ) P(O|\lambda) P(Oλ)了,也就是我们要求的观测序列 O O O在模型 λ \lambda λ下出现的条件概率 P ( O ∣ λ ) P(O|\lambda) P(Oλ)

(1) 首先,任意一个隐藏序列 I = { i 1 , i 2 , . . . , i T } I = \{i_1,i_2,...,i_T\} I={i1,i2,...,iT}出现的概率是 P ( I ∣ λ ) P(I|\lambda) P(Iλ)

(2) 对于固定的状态序列 I I I,我们要求的观察序列 O O O 出现的概率是: P ( O ∣ I , λ ) P(O|I, \lambda) P(OI,λ), 则 I I I O O O联合出现的概率是: P ( O , I ∣ λ ) = P ( I ∣ λ ) P ( O ∣ I , λ ) P(O,I|\lambda) = P(I|\lambda)P(O|I, \lambda) P(O,Iλ)=P(Iλ)P(OI,λ)

(3) 然后求边缘概率分布,即可得到观测序列 O O O 在模型 λ \lambda λ下出现的条件概率: P ( O ∣ λ ) = ∑ I P ( O , I ∣ λ ) P(O|\lambda) = \sum\limits_{I}P(O,I|\lambda) P(Oλ)=IP(O,Iλ)

虽然上述方法有效,但是如果我们的隐藏状态数?非常多的那就麻烦了,此时我们预测状态有 N T N^T NT种组合,算法的时间复杂度是 O ( T N T ) O(TN^T) O(TNT)阶的。因此对于一些隐藏状态数极少的模型,我们可以用暴力求解法来得到观测序列出现的概率,但是如果隐藏状态多,则上述算法太耗时,我们需要寻找其他简洁的算法。

前向后向算法就是来帮助我们在较低的时间复杂度情况下求解这个问题的。

2. 前向算法

前向算法本质上属于动态规划的算法,也就是我们要通过找到局部状态递推的公式,这样一步步的从子问题的最优解拓展到整个问题的最优解

在前向算法中,通过定义“前向概率”来定义动态规划的这个局部状态。什么是前向概率呢, 其实定义很简单:假定t时刻隐藏状态为 q i q_i qi,且观测状态序列为 o 1 , o 2 , . . . o t o_1,o_2,...o_t o1,o2,...ot 的概率就是前向概率,并记为: α t ( i ) = P ( o 1 , o 2 , . . . o t , h t = q i ∣ λ ) \alpha_t(i) = P(o_1,o_2,...o_t, h_t =q_i | \lambda) αt(i)=P(o1,o2,...ot,ht=qiλ)

前向
递推关系式如下:

α t + 1 ( j ) = ∑ i = 1 N α t ( i ) a i j b j ( o t + 1 ) \alpha_{t+1}(j) = \sum\limits_{i=1}^N\alpha_t(i)a_{ij}b_j(o_{t+1}) αt+1(j)=i=1Nαt(i)aijbj(ot+1)

1

我们的动态规划从时刻1开始,到时刻T结束,由于 α T ( i ) \alpha_T(i) αT(i)表示在时刻 T 观测序列为 o 1 , o 2 , . . . o T o_1,o_2,...o_T o1,o2,...oT并且时刻T隐藏状态 q i q_i qi的概率。因此我们只要将所有隐藏状态对应的概率相加,即 ∑ i = 1 N α T ( i ) \sum\limits_{i=1}^N\alpha_T(i) i=1NαT(i)就得到了在时刻T观测序列为 o 1 , o 2 , . . . o T o_1,o_2,...o_T o1,o2,...oT的概率,也就是我们要求的这个观测序列 O O O在模型 λ \lambda λ 下出现的条件概率 P ( O ∣ λ ) P(O|\lambda) P(Oλ)

总结下前向算法的全部过程

输入:HMM模型 λ = ( A , B , Π ) \lambda=(A,B,\Pi) λ=(A,B,Π),观测序列 o 1 , o 2 , . . . o T o_1,o_2,...o_T o1,o2,...oT
输出:观测序列概率 P ( O ∣ λ ) P(O|\lambda) P(Oλ)

(1) 计算时刻1的各个隐藏状态前向概率: α 1 ( i ) = π i b i ( o 1 ) ,    i = 1 , 2 , . . . N \alpha_1(i) = \pi_ib_i(o_1),\; i=1,2,...N α1(i)=πibi(o1),i=1,2,...N π i \pi_i πi是时刻时刻1隐藏状态为i的概率, b i ( o 1 ) b_i(o_1) bi(o1)是观测状态为 o 1 o_1 o1的概率, α 1 ( i ) \alpha_1(i) α1(i)是时刻1状态为i的前向概率。其实就是i取1,2,...,N,要计算所有状态的前向概率

(2) 递推时刻2,3,…T时刻各个隐藏状态的前向概率: α t + 1 ( i ) = ∑ i = 1 N α t ( i ) a i j b j ( o t + 1 ) ,    i = 1 , 2 , . . . N \alpha_{t+1}(i) = \sum\limits_{i=1}^N\alpha_t(i)a_{ij}b_j(o_{t+1}),\; i=1,2,...N αt+1(i)=i=1Nαt(i)aijbj(ot+1),i=1,2,...N这里j也取1,2,...,N,也要计算所有状态的前向概率

(3) 计算最终结果: P ( O ∣ λ ) = ∑ i = 1 N α T ( i ) P(O|\lambda) = \sum\limits_{i=1}^N\alpha_T(i) P(Oλ)=i=1NαT(i)这里相加的是T时刻各隐藏状态的前向概率

从递推公式可以看出,我们的算法时间复杂度是 O ( T N 2 ) O(TN^2) O(TN2),比暴力解法的时间复杂度 O ( T N T ) O(TN^T) O(TNT)少了几个数量级。

3. 前向算法实例

隐马尔科夫模型简介中的盒子与球的例子来显示前向概率的计算。
2
我们的观察集合是:V={红,白},M=2,我们的状态集合是:Q ={盒子1,盒子2,盒子3}, N=3。而观察序列和状态序列的长度为3。

初始状态分布为: Π = ( 0.2 , 0.4 , 0.4 ) T \Pi = (0.2,0.4,0.4)^T Π=(0.2,0.4,0.4)T

状态转移概率分布矩阵为: A = ( 0.5 0.2 0.3 0.3 0.5 0.2 0.2 0.3 0.5 ) A = \left( \begin{array} {ccc} 0.5 & 0.2 & 0.3 \\ 0.3 & 0.5 & 0.2 \\ 0.2 & 0.3 &0.5 \end{array} \right) A=0.50.30.20.20.50.30.30.20.5

观测状态概率矩阵为: B = ( 0.5 0.5 0.4 0.6 0.7 0.3 ) B = \left( \begin{array} {ccc} 0.5 & 0.5 \\ 0.4 & 0.6 \\ 0.7 & 0.3 \end{array} \right) B=0.50.40.70.50.60.3

球的颜色的观测序列:O={红,白,红}

按照我们上一节的前向算法。首先计算时刻1三个状态的前向概率:

(1) 时刻1是红色球:

隐藏状态是盒子1的概率为: α 1 ( 1 ) = π 1 b 1 ( o 1 ) = 0.2 × 0.5 = 0.1 \alpha_1(1) = \pi_1b_1(o_1) = 0.2 \times 0.5 = 0.1 α1(1)=π1b1(o1)=0.2×0.5=0.1

隐藏状态是盒子2的概率为: α 1 ( 2 ) = π 2 b 2 ( o 1 ) = 0.4 × 0.4 = 0.16 \alpha_1(2) = \pi_2b_2(o_1) = 0.4 \times 0.4 = 0.16 α1(2)=π2b2(o1)=0.4×0.4=0.16

隐藏状态是盒子3的概率为: α 1 ( 3 ) = π 3 b 3 ( o 1 ) = 0.4 × 0.7 = 0.28 \alpha_1(3) = \pi_3b_3(o_1) = 0.4 \times 0.7 = 0.28 α1(3)=π3b3(o1)=0.4×0.7=0.28

(2) 现在我们可以开始递推了,首先递推时刻2三个状态的前向概率

时刻2是白色球:

隐藏状态是盒子1的概率为: α 2 ( 1 ) = [ ∑ i = 1 3 α 1 ( i ) a i 1 ] b 1 ( o 2 ) = [ 0.1 ∗ 0.5 + 0.16 ∗ 0.3 + 0.28 ∗ 0.2 ] × 0.5 = 0.077 \alpha_2(1) = \Big[\sum\limits_{i=1}^3\alpha_1(i)a_{i1}\Big]b_1(o_2) = [0.1*0.5+0.16*0.3+0.28*0.2 ] \times 0.5 = 0.077 α2(1)=[i=13α1(i)ai1]b1(o2)=[0.10.5+0.160.3+0.280.2]×0.5=0.077

隐藏状态是盒子2的概率为: α 2 ( 2 ) = [ ∑ i = 1 3 α 1 ( i ) a i 2 ] b 2 ( o 2 ) = [ 0.1 ∗ 0.2 + 0.16 ∗ 0.5 + 0.28 ∗ 0.3 ] × 0.6 = 0.1104 \alpha_2(2) = \Big[\sum\limits_{i=1}^3\alpha_1(i)a_{i2}\Big]b_2(o_2) = [0.1*0.2+0.16*0.5+0.28*0.3 ] \times 0.6 = 0.1104 α2(2)=[i=13α1(i)ai2]b2(o2)=[0.10.2+0.160.5+0.280.3]×0.6=0.1104

隐藏状态是盒子3的概率为: α 2 ( 3 ) = [ ∑ i = 1 3 α 1 ( i ) a i 3 ] b 3 ( o 2 ) = [ 0.1 ∗ 0.3 + 0.16 ∗ 0.2 + 0.28 ∗ 0.5 ] × 0.3 = 0.0606 \alpha_2(3) = \Big[\sum\limits_{i=1}^3\alpha_1(i)a_{i3}\Big]b_3(o_2) = [0.1*0.3+0.16*0.2+0.28*0.5 ] \times 0.3 = 0.0606 α2(3)=[i=13α1(i)ai3]b3(o2)=[0.10.3+0.160.2+0.280.5]×0.3=0.0606

(3) 继续递推,现在我们递推时刻3三个状态的前向概率

时刻3是红色球:

隐藏状态是盒子1的概率为: α 3 ( 1 ) = [ ∑ i = 1 3 α 2 ( i ) a i 1 ] b 1 ( o 3 ) = [ 0.077 ∗ 0.5 + 0.1104 ∗ 0.3 + 0.0606 ∗ 0.2 ] × 0.5 = 0.04187 \alpha_3(1) = \Big[\sum\limits_{i=1}^3\alpha_2(i)a_{i1}\Big]b_1(o_3) = [0.077*0.5+0.1104*0.3+0.0606*0.2 ] \times 0.5 = 0.04187 α3(1)=[i=13α2(i)ai1]b1(o3)=[0.0770.5+0.11040.3+0.06060.2]×0.5=0.04187

隐藏状态是盒子2的概率为: α 3 ( 2 ) = [ ∑ i = 1 3 α 2 ( i ) a i 2 ] b 2 ( o 3 ) = [ 0.077 ∗ 0.2 + 0.1104 ∗ 0.5 + 0.0606 ∗ 0.3 ] × 0.4 = 0.03551 \alpha_3(2) = \Big[\sum\limits_{i=1}^3\alpha_2(i)a_{i2}\Big]b_2(o_3) = [0.077*0.2+0.1104*0.5+0.0606*0.3 ] \times 0.4 = 0.03551 α3(2)=[i=13α2(i)ai2]b2(o3)=[0.0770.2+0.11040.5+0.06060.3]×0.4=0.03551

隐藏状态是盒子3的概率为: α 3 ( 3 ) = [ ∑ i = 1 3 α 3 ( i ) a i 3 ] b 3 ( o 3 ) = [ 0.077 ∗ 0.3 + 0.1104 ∗ 0.2 + 0.0606 ∗ 0.5 ] × 0.7 = 0.05284 \alpha_3(3) = \Big[\sum\limits_{i=1}^3\alpha_3(i)a_{i3}\Big]b_3(o_3) = [0.077*0.3+0.1104*0.2+0.0606*0.5 ] \times 0.7 = 0.05284 α3(3)=[i=13α3(i)ai3]b3(o3)=[0.0770.3+0.11040.2+0.06060.5]×0.7=0.05284

(4) 最终我们求出观测序列:O={红,白,红}的概率为:

P ( O ∣ λ ) = ∑ i = 1 3 α 3 ( i ) = 0.13022 P(O|\lambda) = \sum\limits_{i=1}^3\alpha_3(i) = 0.13022 P(Oλ)=i=13α3(i)=0.13022

4. 后向算法

后向算法和前向算法非常类似,都是用的动态规划,唯一的区别是选择的局部状态不同,后向算法用的是“后向概率”,那么后向概率是如何定义的呢?

定义时刻t时隐藏状态为 q i q_i qi, 从时刻t+1到最后时刻T的观测状态的序列为 o t + 1 , o t + 2 , . . . o T o_{t+1},o_{t+2},...o_T ot+1,ot+2,...oT的概率为后向概率。记为:

β t ( i ) = P ( o t + 1 , o t + 2 , . . . o T ∣ h t = q i , λ ) \beta_t(i) = P(o_{t+1},o_{t+2},...o_T| h_t =q_i , \lambda) βt(i)=P(ot+1,ot+2,...oTht=qi,λ)

后向概率的动态规划递推公式和前向概率是相反的:

  • 现在我们假设我们已经找到了在时刻t+1时各个隐藏状态的后向概率。 β t + 1 ( j ) \beta_{t+1}(j) βt+1(j),现在我们需要递推出时刻t时各个隐藏状态的后向概率
  • 如下图,我们可以计算出观测状态的序列为 o t + 2 , o t + 3 , . . . o T o_{t+2},o_{t+3},...o_T ot+2,ot+3,...oT, 且t时刻隐藏状态为 q i q_i qi, t+1时刻隐藏状态为 q j q_j qj的概率为 a i j β t + 1 ( j ) a_{ij}\beta_{t+1}(j) aijβt+1(j)
  • 接着可以得到观测状态的序列为 o t + 1 , o t + 2 , . . . o T o_{t+1},o_{t+2},...o_T ot+1,ot+2,...oT, t时隐藏状态为 q i q_i qi, 时刻t+1隐藏状态为 q j q_j qj的概率为 a i j b j ( o t + 1 ) β t + 1 ( j ) a_{ij}b_j(o_{t+1})\beta_{t+1}(j) aijbj(ot+1)βt+1(j), 则把下面所有线对应的概率加起来,我们可以得到观测状态的序列为 o t + 1 , o t + 2 , . . . o T o_{t+1},o_{t+2},...o_T ot+1,ot+2,...oT, t时隐藏状态为 q i q_i qi的概率为 ∑ j = 1 N a i j b j ( o t + 1 ) β t + 1 ( j ) \sum\limits_{j=1}^{N}a_{ij}b_j(o_{t+1})\beta_{t+1}(j) j=1Naijbj(ot+1)βt+1(j),这个概率即为时刻t的后向概率。

3
这样我们得到了后向概率的递推关系式如下:

β t ( i ) = ∑ j = 1 N a i j b j ( o t + 1 ) β t + 1 ( j ) \beta_{t}(i) = \sum\limits_{j=1}^{N}a_{ij}b_j(o_{t+1})\beta_{t+1}(j) βt(i)=j=1Naijbj(ot+1)βt+1(j)

现在我们总结下后向算法的流程,注意下和前向算法的相同点和不同点:

输入:HMM模型 λ = ( A , B , Π ) \lambda=(A,B,\Pi) λ=(A,B,Π),观测序列 O = ( o 1 , o 2 , . . . o T ) O=(o_1,o_2,...o_T) O=(o1,o2,...oT)
输出:观测序列概率 P ( O ∣ λ ) P(O|\lambda) P(Oλ)

(1) 初始化时刻T的各个隐藏状态后向概率: β T ( i ) = 1 ,    i = 1 , 2 , . . . N \beta_T(i) = 1,\; i=1,2,...N βT(i)=1,i=1,2,...N注意这里所有状态的后向概率为1

(2) 递推时刻T−1,T−2,…1时刻的后向概率: β t ( i ) = ∑ j = 1 N a i j b j ( o t + 1 ) β t + 1 ( j ) ,    i = 1 , 2 , . . . N \beta_{t}(i) = \sum\limits_{j=1}^{N}a_{ij}b_j(o_{t+1})\beta_{t+1}(j),\; i=1,2,...N βt(i)=j=1Naijbj(ot+1)βt+1(j),i=1,2,...N

(3) 计算最终结果: P ( O ∣ λ ) = ∑ i = 1 N π i b i ( o 1 ) β 1 ( i ) P(O|\lambda) = \sum\limits_{i=1}^N\pi_ib_i(o_1)\beta_1(i) P(Oλ)=i=1Nπibi(o1)β1(i)
    
此时我们的算法时间复杂度仍然是 O ( T N 2 ) O(TN^2) O(TN2)

5. HMM常用概率的计算

利用前向概率和后向概率,我们可以计算出HMM中单个状态和两个状态的概率公式。

(1) 给定模型 λ \lambda λ和观测序列 O O O,在时刻t处于状态 q i q_i qi的概率记为:

γ t ( i ) = P ( h t = q i ∣ O , λ ) = P ( h t = q i , O ∣ λ ) P ( O ∣ λ ) \gamma_t(i) = P(h_t = q_i | O,\lambda) = \frac{P(h_t = q_i ,O|\lambda)}{P(O|\lambda)} γt(i)=P(ht=qiO,λ)=P(Oλ)P(ht=qi,Oλ)

利用前向概率和后向概率的定义可知: P ( h t = q i , O ∣ λ ) = α t ( i ) β t ( i ) P(h_t = q_i ,O|\lambda) = \alpha_t(i)\beta_t(i) P(ht=qi,Oλ)=αt(i)βt(i)

于是我们得到:

γ t ( i ) = α t ( i ) β t ( i ) ∑ j = 1 N α t ( j ) β t ( j ) \gamma_t(i) = \frac{ \alpha_t(i)\beta_t(i)}{\sum\limits_{j=1}^N \alpha_t(j)\beta_t(j)} γt(i)=j=1Nαt(j)βt(j)αt(i)βt(i)

(2) 给定模型 λ \lambda λ和观测序列 O O O,在时刻t处于状态 q i q_i qi,且时刻t+1处于状态 q j q_j qj的概率记为:

ξ t ( i , j ) = P ( h t = q i , h t + 1 = q j ∣ O , λ ) = P ( h t = q i , h t + 1 = q j , O ∣ λ ) P ( O ∣ λ ) \xi_t(i,j) = P(h_t = q_i, h_{t+1}=q_j | O,\lambda) = \frac{ P(h_t = q_i, h_{t+1}=q_j , O|\lambda)}{P(O|\lambda)} ξt(i,j)=P(ht=qi,ht+1=qjO,λ)=P(Oλ)P(ht=qi,ht+1=qj,Oλ)

P ( h t = q i , h t + 1 = q j , O ∣ λ ) P(h_t = q_i, h_{t+1}=q_j , O|\lambda) P(ht=qi,ht+1=qj,Oλ)可以由前向后向概率来表示为:

P ( h t = q i , h t + 1 = q j , O ∣ λ ) = α t ( i ) a i j b j ( o t + 1 ) β t + 1 ( j ) P(h_t = q_i, h_{t+1}=q_j , O|\lambda) = \alpha_t(i)a_{ij}b_j(o_{t+1})\beta_{t+1}(j) P(ht=qi,ht+1=qj,Oλ)=αt(i)aijbj(ot+1)βt+1(j)

从而最终我们得到 ξ t ( i , j ) \xi_t(i,j) ξt(i,j)的表达式如下:

ξ t ( i , j ) = α t ( i ) a i j b j ( o t + 1 ) β t + 1 ( j ) ∑ r = 1 N ∑ s = 1 N α t ( r ) a r s b s ( o t + 1 ) β t + 1 ( s ) \xi_t(i,j) = \frac{\alpha_t(i)a_{ij}b_j(o_{t+1})\beta_{t+1}(j)}{\sum\limits_{r=1}^N\sum\limits_{s=1}^N\alpha_t(r)a_{rs}b_s(o_{t+1})\beta_{t+1}(s)} ξt(i,j)=r=1Ns=1Nαt(r)arsbs(ot+1)βt+1(s)αt(i)aijbj(ot+1)βt+1(j)

(3) 将 γ t ( i ) \gamma_t(i) γt(i) ξ t ( i , j ) \xi_t(i,j) ξt(i,j)在各个时刻t求和,可以得到:

  • 在观测序列O下状态 i 出现的期望值: ∑ t = 1 T γ t ( i ) \sum\limits_{t=1}^T\gamma_t(i) t=1Tγt(i)
  • 在观测序列O下由状态 i 转移的期望值: ∑ t = 1 T − 1 γ t ( i ) \sum\limits_{t=1}^{T-1}\gamma_t(i) t=1T1γt(i)
  • 在观测序列O下由状态 i 转移到状态 j 的期望值: ∑ t = 1 T − 1 ξ t ( i , j ) \sum\limits_{t=1}^{T-1}\xi_t(i,j) t=1T1ξt(i,j)

上面这些常用的概率值在求解HMM问题二,即求解HMM模型参数的时候需要用到。

问题二、最可能隐藏状态序列求解

问题描述:在HMM模型的解码问题中,给定模型 λ = ( A , B , Π ) \lambda=(A,B,\Pi) λ=(A,B,Π)和观测序列 O = { o 1 , o 2 , . . . o T } O =\{o_1,o_2,...o_T\} O={o1,o2,...oT},求给定观测序列O条件下,最可能出现的对应的状态序列 I ∗ = { i 1 ∗ , i 2 ∗ , . . . i T ∗ } I^*= \{i_1^*,i_2^*,...i_T^*\} I={i1,i2,...iT},即 P ( T ∗ ∣ O ) P(T^*|O) P(TO)要最大化。

一个可能的近似解法是求出观测序列O在每个时刻t最可能的隐藏状态 i t ∗ i_t^* it然后得到一个近似的隐藏状态序列 I ∗ = { i 1 ∗ , i 2 ∗ , . . . i T ∗ } I^*= \{i_1^*,i_2^*,...i_T^*\} I={i1,i2,...iT}。要这样近似求解不难,利用前一个问题的前向后向算法评估观察序列概率中第五节(HMM常用概率)的定义:在给定模型 λ \lambda λ和观测序列O时,在时刻t处于状态 q i q_i qi的概率是 γ t ( i ) \gamma_t(i) γt(i),这个概率可以通过HMM的前向算法与后向算法计算。这样我们有:

i t ∗ = a r g max ⁡ 1 ≤ i ≤ N [ γ t ( i ) ] ,    t = 1 , 2 , . . . T i_t^* = arg \max_{1 \leq i \leq N}[\gamma_t(i)], \; t =1,2,...T it=arg1iNmax[γt(i)],t=1,2,...T

近似算法很简单,但是却不能保证预测的状态序列是整体是最可能的状态序列,因为预测的状态序列中某些相邻的隐藏状态可能存在转移概率为0的情况。

而维特比算法可以将HMM的状态序列作为一个整体来考虑,避免近似算法的问题,维特比算法是一个通用的求序列最短路径的动态规划算法,也可以用于很多其他问题。下面我们来看看维特比算法进行HMM解码的方法。

1. 维特比算法概述

维特比算法是一个通用的解码算法,是基于动态规划的求序列最短路径的方法。既然是动态规划算法,那么就需要找到合适的局部状态,以及局部状态的递推公式。在HMM中,维特比算法定义了两个局部状态用于递推。
    
(1) 第一个局部状态是在时刻t隐藏状态为i所有可能的状态转移路径 i 1 , i 2 , . . . i t i_1,i_2,...i_t i1,i2,...it i → i t i \rightarrow i_t iit)中的概率最大值。记为 δ t ( i ) \delta_t(i) δt(i):
δ t ( i ) = max ⁡ i 1 , i 2 , . . . i t − 1    P ( i t = i , i 1 , i 2 , . . . i t − 1 , o t , o t − 1 , . . . o 1 ∣ λ ) ,    i = 1 , 2 , . . . N \delta_t(i) = \max_{i_1,i_2,...i_{t-1}}\;P(i_t=i, i_1,i_2,...i_{t-1},o_t,o_{t-1},...o_1|\lambda),\; i =1,2,...N δt(i)=i1,i2,...it1maxP(it=i,i1,i2,...it1,ot,ot1,...o1λ),i=1,2,...N

δ t ( i ) \delta_t(i) δt(i)的定义可以得到?的递推表达式:

δ t + 1 ( i ) = max ⁡ i 1 , i 2 , . . . i t    P ( i t + 1 = i , i 1 , i 2 , . . . i t , o t + 1 , o t , . . . o 1 ∣ λ ) = max ⁡ 1 ≤ j ≤ N    [ δ t ( j ) a j i ] b i ( o t + 1 ) \begin{array}{ll} \delta_{t+1}(i) & = \max_{i_1,i_2,...i_{t}}\;P(i_{t+1}=i, i_1,i_2,...i_{t},o_{t+1},o_{t},...o_1|\lambda)\\ & = \max_{1 \leq j \leq N}\;[\delta_t(j)a_{ji}]b_i(o_{t+1})\\ \end{array} δt+1(i)=maxi1,i2,...itP(it+1=i,i1,i2,...it,ot+1,ot,...o1λ)=max1jN[δt(j)aji]bi(ot+1)

(2)第二个局部状态由第一个局部状态递推得到。我们定义在时刻t隐藏状态为i的所有单个状态转移路径 ( i 1 , i 2 , . . . , i t − 1 , i ) (i_1,i_2,...,i_{t-1},i) (i1,i2,...,it1,i)中概率最大的转移路径中第t−1个时刻的隐藏状态 i t − 1 = Ψ t ( i t ) i_{t-1}=\Psi_t(i_t) it1=Ψt(it),其递推表达式可以表示为:

Ψ t ( i t ) = a r g    max ⁡ 1 ≤ j ≤ N    [ δ t − 1 ( j ) a j i ] \Psi_t(i_t) = arg \; \max_{1 \leq j \leq N}\;[\delta_{t-1}(j)a_{ji}] Ψt(it)=arg1jNmax[δt1(j)aji]

有了这两个局部状态,我们就可以先从时刻0一直递推到时刻T,然后再利用 Ψ t ( i t ) \Psi_t(i_t) Ψt(it)记录的前一个最可能的状态节点回溯,直到找到最优的隐藏状态序列。

2. 维特比算法的流程

输入:HMM模型 λ = ( A , B , Π ) \lambda=(A,B,\Pi) λ=(A,B,Π),观测序列 O = { o 1 , o 2 , . . . o T } O =\{o_1,o_2,...o_T\} O={o1,o2,...oT}
输出:最有可能的隐藏状态序列 I ∗ = { i 1 ∗ , i 2 ∗ , . . . i T ∗ } I^*= \{i_1^*,i_2^*,...i_T^*\} I={i1,i2,...iT}

(1) 初始化局部状态:

δ 1 ( i ) = π i b i ( o 1 ) ,    i = 1 , 2... N \delta_1(i) = \pi_ib_i(o_1),\;i=1,2...N δ1(i)=πibi(o1),i=1,2...N
Ψ 1 ( i ) = 0 ,    i = 1 , 2... N \Psi_1(i)=0,\;i=1,2...N Ψ1(i)=0,i=1,2...N

(2) 进行动态规划递推时刻t=2,3,…,T时刻的局部状态:

δ t ( i ) = max ⁡ 1 ≤ j ≤ N    [ δ t − 1 ( j ) a j i ] b i ( 0 t ) ,    i = 1 , 2... N \delta_{t}(i) = \max_{1 \leq j \leq N}\;[\delta_{t-1}(j)a_{ji}]b_i(0_{t}),\;i=1,2...N δt(i)=max1jN[δt1(j)aji]bi(0t),i=1,2...N
Ψ t ( i ) = a r g    max ⁡ 1 ≤ j ≤ N    [ δ t − 1 ( j ) a j i ] ,    i = 1 , 2... N \Psi_t(i) = arg \; \max_{1 \leq j \leq N}\;[\delta_{t-1}(j)a_{ji}],\;i=1,2...N Ψt(i)=argmax1jN[δt1(j)aji],i=1,2...N

(3) 如果t=1,2,…,T所有时刻的两个局部状态 δ t ( i ) \delta_t(i) δt(i) Ψ t ( i ) \Psi_t(i) Ψt(i)都已经计算完成

那就要从时刻T开始,计算该时刻最大的 δ T ( i ) \delta_{T}(i) δT(i),即为最可能隐藏状态序列出现的概率。计算时刻T最大的 Ψ t ( i ) \Psi_t(i) Ψt(i),即为时刻T最可能的隐藏状态 i T ∗ i_T^* iT

δ T ( i ) \delta_{T}(i) δT(i)中的最大概率: P ∗ = max ⁡ 1 ≤ j ≤ N δ T ( i ) P^* = \max_{1 \leq j \leq N}\delta_{T}(i) P=max1jNδT(i)
对应了T时刻最可能的隐藏状态: i T ∗ = a r g    max ⁡ 1 ≤ j ≤ N    [ δ T ( i ) ] i_T^* = arg \; \max_{1 \leq j \leq N}\;[\delta_{T}(i)] iT=argmax1jN[δT(i)]

(4) 利用局部状态 Ψ ( i ) \Psi(i) Ψ(i)开始回溯。对于t=T−1,T−2,…,1:

i t ∗ = Ψ t + 1 ( i t + 1 ∗ ) i_t^* = \Psi_{t+1}(i_{t+1}^*) it=Ψt+1(it+1)

也就是将t+1时刻的隐藏状态 i t + 1 ∗ i_{t+1}^* it+1代入到上面这个等式,从而求得t时刻的最可能隐藏状态 i t ∗ i_t^* it,最终得到最有可能的隐藏状态序列 I ∗ = { i 1 ∗ , i 2 ∗ , . . . i T ∗ } I^*= \{i_1^*,i_2^*,...i_T^*\} I={i1,i2,...iT}

3. HMM维特比算法求解实例

仍使用上面的盒子与球的例子来看看HMM维特比算法求解。

按照我们上一节的维特比算法:

(1) 首先需要得到三个隐藏状态在时刻1时对应的各自两个局部状态 δ 1 ( i ) \delta_1(i) δ1(i) Ψ 1 ( i ) \Psi_1(i) Ψ1(i),此时观测状态为1(红球):

δ 1 ( 1 ) = π 1 b 1 ( o 1 ) = 0.2 × 0.5 = 0.1 \delta_1(1) = \pi_1b_1(o_1) = 0.2 \times 0.5 = 0.1 δ1(1)=π1b1(o1)=0.2×0.5=0.1
δ 1 ( 2 ) = π 2 b 2 ( o 1 ) = 0.4 × 0.4 = 0.16 \delta_1(2) = \pi_2b_2(o_1) = 0.4 \times 0.4 = 0.16 δ1(2)=π2b2(o1)=0.4×0.4=0.16
δ 1 ( 3 ) = π 3 b 3 ( o 1 ) = 0.4 × 0.7 = 0.28 \delta_1(3) = \pi_3b_3(o_1) = 0.4 \times 0.7 = 0.28 δ1(3)=π3b3(o1)=0.4×0.7=0.28
Ψ 1 ( 1 ) = Ψ 1 ( 2 ) = Ψ 1 ( 3 ) = 0 \Psi_1(1)=\Psi_1(2) =\Psi_1(3) =0 Ψ1(1)=Ψ1(2)=Ψ1(3)=0

(2) 现在开始递推三个隐藏状态在时刻2时对应的各自两个局部状态,此时观测状态为2(白球):

δ 2 ( 1 ) = max ⁡ 1 ≤ j ≤ 3 [ δ 1 ( j ) a j 1 ] b 1 ( o 2 ) = max ⁡ 1 ≤ j ≤ 3 [ 0.1 × 0.5 , 0.16 × 0.3 , 0.28 × 0.2 ] × 0.5 = 0.028 \delta_2(1) = \max_{1\leq j \leq 3}[\delta_1(j)a_{j1}]b_1(o_2) = \max_{1\leq j \leq 3}[0.1 \times 0.5, 0.16 \times 0.3, 0.28\times 0.2] \times 0.5 = 0.028 δ2(1)=max1j3[δ1(j)aj1]b1(o2)=max1j3[0.1×0.5,0.16×0.3,0.28×0.2]×0.5=0.028
Ψ 2 ( 1 ) = a r g max ⁡ 1 ≤ j ≤ 3 [ δ 1 ( j ) a j 1 ] = a r g max ⁡ 1 ≤ j ≤ 3 [ 0.1 × 0.5 , 0.16 × 0.3 , 0.28 × 0.2 ] = 3 \Psi_2(1)= arg\max_{1\leq j \leq 3}[\delta_1(j)a_{j1}]= arg\max_{1\leq j \leq 3}[0.1 \times 0.5, 0.16 \times 0.3, 0.28\times 0.2] = 3 Ψ2(1)=argmax1j3[δ1(j)aj1]=argmax1j3[0.1×0.5,0.16×0.3,0.28×0.2]=3

δ 2 ( 2 ) = max ⁡ 1 ≤ j ≤ 3 [ δ 1 ( j ) a j 2 ] b 2 ( o 2 ) = max ⁡ 1 ≤ j ≤ 3 [ 0.1 × 0.2 , 0.16 × 0.5 , 0.28 × 0.3 ] × 0.6 = 0.0504 \delta_2(2) = \max_{1\leq j \leq 3}[\delta_1(j)a_{j2}]b_2(o_2) = \max_{1\leq j \leq 3}[0.1 \times 0.2, 0.16 \times 0.5, 0.28\times 0.3] \times 0.6 = 0.0504 δ2(2)=max1j3[δ1(j)aj2]b2(o2)=max1j3[0.1×0.2,0.16×0.5,0.28×0.3]×0.6=0.0504
Ψ 2 ( 3 ) = a r g max ⁡ 1 ≤ j ≤ 3 [ δ 1 ( j ) a j 2 ] = a r g max ⁡ 1 ≤ j ≤ 3 [ 0.1 × 0.2 , 0.16 × 0.5 , 0.28 × 0.3 ] = 3 \Psi_2(3)= arg\max_{1\leq j \leq 3}[\delta_1(j)a_{j2}] =arg \max_{1\leq j \leq 3}[0.1 \times 0.2, 0.16 \times 0.5, 0.28\times 0.3]= 3 Ψ2(3)=argmax1j3[δ1(j)aj2]=argmax1j3[0.1×0.2,0.16×0.5,0.28×0.3]=3

δ 2 ( 3 ) = max ⁡ 1 ≤ j ≤ 3 [ δ 1 ( j ) a j 3 ] b 3 ( o 2 ) = max ⁡ 1 ≤ j ≤ 3 [ 0.1 × 0.3 , 0.16 × 0.2 , 0.28 × 0.5 ] × 0.3 = 0.042 \delta_2(3) = \max_{1\leq j \leq 3}[\delta_1(j)a_{j3}]b_3(o_2) = \max_{1\leq j \leq 3}[0.1 \times 0.3, 0.16 \times 0.2, 0.28\times 0.5] \times 0.3 = 0.042 δ2(3)=max1j3[δ1(j)aj3]b3(o2)=max1j3[0.1×0.3,0.16×0.2,0.28×0.5]×0.3=0.042
Ψ 2 ( 3 ) = a r g max ⁡ 1 ≤ j ≤ 3 [ δ 1 ( j ) a j 3 ] = a r g max ⁡ 1 ≤ j ≤ 3 [ 0.1 × 0.3 , 0.16 × 0.2 , 0.28 × 0.5 ] = 3 \Psi_2(3) =arg\max_{1\leq j \leq 3}[\delta_1(j)a_{j3}]=arg \max_{1\leq j \leq 3}[0.1 \times 0.3, 0.16 \times 0.2, 0.28\times 0.5] = 3 Ψ2(3)=argmax1j3[δ1(j)aj3]=argmax1j3[0.1×0.3,0.16×0.2,0.28×0.5]=3

(3) 继续递推三个隐藏状态在时刻3时对应的各自两个局部状态,此时观测状态为1(红球):

δ 3 ( 1 ) = max ⁡ 1 ≤ j ≤ 3 [ δ 2 ( j ) a j 1 ] b 1 ( o 3 ) = max ⁡ 1 ≤ j ≤ 3 [ 0.028 × 0.5 , 0.0504 × 0.3 , 0.042 × 0.2 ] × 0.5 = 0.00756 \delta_3(1) = \max_{1\leq j \leq 3}[\delta_2(j)a_{j1}]b_1(o_3) = \max_{1\leq j \leq 3}[0.028 \times 0.5, 0.0504 \times 0.3, 0.042\times 0.2] \times 0.5 = 0.00756 δ3(1)=max1j3[δ2(j)aj1]b1(o3)=max1j3[0.028×0.5,0.0504×0.3,0.042×0.2]×0.5=0.00756
Ψ 3 ( 1 ) = 2 \Psi_3(1) =2 Ψ3(1)=2

δ 3 ( 2 ) = max ⁡ 1 ≤ j ≤ 3 [ δ 2 ( j ) a j 2 ] b 2 ( o 3 ) = max ⁡ 1 ≤ j ≤ 3 [ 0.028 × 0.2 , 0.0504 × 0.5 , 0.042 × 0.3 ] × 0.4 = 0.01008 \delta_3(2) = \max_{1\leq j \leq 3}[\delta_2(j)a_{j2}]b_2(o_3) = \max_{1\leq j \leq 3}[0.028 \times 0.2, 0.0504\times 0.5, 0.042\times 0.3] \times 0.4 = 0.01008 δ3(2)=max1j3[δ2(j)aj2]b2(o3)=max1j3[0.028×0.2,0.0504×0.5,0.042×0.3]×0.4=0.01008
Ψ 3 ( 2 ) = 2 \Psi_3(2) =2 Ψ3(2)=2

δ 3 ( 3 ) = max ⁡ 1 ≤ j ≤ 3 [ δ 2 ( j ) a j 3 ] b 3 ( o 3 ) = max ⁡ 1 ≤ j ≤ 3 [ 0.028 × 0.3 , 0.0504 × 0.2 , 0.042 × 0.5 ] × 0.7 = 0.0147 \delta_3(3) = \max_{1\leq j \leq 3}[\delta_2(j)a_{j3}]b_3(o_3) = \max_{1\leq j \leq 3}[0.028 \times 0.3, 0.0504 \times 0.2, 0.042\times 0.5] \times 0.7 = 0.0147 δ3(3)=max1j3[δ2(j)aj3]b3(o3)=max1j3[0.028×0.3,0.0504×0.2,0.042×0.5]×0.7=0.0147
Ψ 3 ( 3 ) = 3 \Psi_3(3) =3 Ψ3(3)=3

(4) 此时已经到最后的时刻,我们开始准备回溯
此时最大概率为 P ∗ = δ 3 ( 3 ) P^*=\delta_3(3) P=δ3(3),从而得到 i 3 ∗ = 3 i_3^*=3 i3=3,也就是时刻3最可能的隐藏状态是盒子3。将 i 3 ∗ = 3 i_3^*=3 i3=3代入 i 2 ∗ = Ψ 3 ( i 3 ∗ ) i_2^* = \Psi_{3}(i_{3}^*) i2=Ψ3(i3),所以 i 2 ∗ = 3 i_2^*=3 i2=3。同样将 i 2 ∗ = 3 i_2^*=3 i2=3代入 i 1 ∗ = Ψ 2 ( i 2 ∗ ) i_1^* = \Psi_{2}(i_{2}^*) i1=Ψ2(i2),所以 i 1 ∗ = 3 i_1^*=3 i1=3。从而得到最终的最可能的隐藏状态序列为:(3,3,3)。

问题三、模型参数学习问题

HMM模型参数求解根据已知的条件可以分为两种情况。

1. 第一种情况

这种情况较为简单,就是我们已知D个长度为T的观测序列和对应的隐藏状态序列,即 { ( O 1 , I 1 ) , ( O 2 , I 2 ) , . . . ( O D , I D ) } \{(O_1, I_1), (O_2, I_2), ...(O_D, I_D)\} {(O1,I1),(O2,I2),...(OD,ID)}是已知的,此时我们可以很容易的用最大似然来求解模型参数。

  • 假设样本从隐藏状态 q i q_i qi转移到 q j q_j qj的频率计数是 A i j A_{ij} Aij,那么状态转移矩阵A求得为:
    A = [ a i j ] ,    其 中 a i j = A i j ∑ s = 1 N A i s A = \Big[a_{ij}\Big], \;其中a_{ij} = \frac{A_{ij}}{\sum\limits_{s=1}^{N}A_{is}} A=[aij],aij=s=1NAisAij

  • 假设样本隐藏状态为 q j q_j qj且观测状态为 v k v_k vk的频率计数是 B j k B_{jk} Bjk,那么观测状态概率矩阵B为:
    B = [ b j ( k ) ] ,    其 中 b j ( k ) = B j k ∑ s = 1 M B j s B= \Big[b_{j}(k)\Big], \;其中b_{j}(k) = \frac{B_{jk}}{\sum\limits_{s=1}^{M}B_{js}} B=[bj(k)],bj(k)=s=1MBjsBjk

  • 假设所有样本中初始隐藏状态为 q i q_i qi的频率计数为C(i),那么初始概率分布Π为:
    Π = π ( i ) = C ( i ) ∑ s = 1 N C ( s ) \Pi = \pi(i) = \frac{C(i)}{\sum\limits_{s=1}^{N}C(s)} Π=π(i)=s=1NC(s)C(i)

可见第一种情况下求解模型还是很简单的,其实就是基于统计计算模型参数。但是在很多时候,我们无法得到HMM样本观察序列对应的隐藏序列,只有D个长度为T的观测序列,即 { ( O 1 ) , ( O 2 ) , . . . ( O D ) } \{(O_1), (O_2), ...(O_D)\} {(O1),(O2),...(OD)}是已知的,那就属于第二种情况了。

2. 第二种情况

也是我们本文要讨论的重点。它的解法最常用的是鲍姆-韦尔奇(Baum-Welch)算法,其实就是基于EM算法的求解,只不过鲍姆-韦尔奇算法出现的时代,EM算法还没有被抽象出来,所以我们本文还是说鲍姆-韦尔奇算法。

假设给定训练数据中包含S个长度为T的观测序列 O = ( o 1 , o 2 , . . . , o T ) O=(o_1,o_2,...,o_T) O=(o1,o2,...,oT),而没有对应的隐藏状态序列,目标是学习隐马尔可夫模型 λ = ( A , B , π ) \lambda= (A,B,\pi) λ=(A,B,π)的参数。我们将观测序列数据看作观测数据 O O O,状态序列数据看作不可观测的隐数据 I I I,那么隐马尔可夫模型事实上是一个含有隐变量的概率模型 :
P ( O ∣ λ ) = ∑ I P ( O ∣ I , λ ) P ( I ∣ λ ) (3.2.1) P(O|\lambda) = \sum_{I}P(O|I,\lambda)P(I|\lambda) \tag{3.2.1} P(Oλ)=IP(OI,λ)P(Iλ)(3.2.1)

(1) 确定完全数据的对数似然函数
所有观测数据写成 O = ( o 1 , o 2 , . . . , o T ) O=(o_1,o_2,...,o_T) O=(o1,o2,...,oT),所有隐数据写成 I = ( i 1 , i 2 , . . . , i T ) I=(i_1,i_2,...,i_T) I=(i1,i2,...,iT)完全数据 ( O , I ) = ( o 1 , o 2 , . . . , o T , i 1 , i 2 , . . . , i T ) (O,I)=(o_1,o_2,...,o_T,i_1,i_2,...,i_T) (O,I)=(o1,o2,...,oT,i1,i2,...,iT)完全数据的对数似然函数 log ⁡ P ( O , I ∣ λ ) \log P(O,I|\lambda) logP(O,Iλ)(似然函数还是条件概率的形式,但是目的是求参数)。

(2) EM算法的E步:写出Q函数

首先Q函数的定义: Q ( λ , λ ‾ ) = E I [ l o g P ( O , I ∣ λ ) ∣ O , λ ‾ ] Q(\lambda,\overline{\lambda})=E_I[logP(O,I|\lambda)|O,\overline{\lambda}] Q(λ,λ)=EI[logP(O,Iλ)O,λ]

Q函数是完全数据的对数似然函数关于给定模型参数和观测变量的前提下隐变量的条件概率分布期望。按照Q函数的定义在当前问题的具体形式如下:
Q ( λ , λ ‾ ) = ∑ I l o g P ( O , I ∣ λ ) P ( I ∣ O , λ ‾ ) (3.2.2) Q(\lambda,\overline{\lambda})=\sum_IlogP(O,I|\lambda)P(I|O,\overline{\lambda})\tag{3.2.2} Q(λ,λ)=IlogP(O,Iλ)P(IO,λ)(3.2.2)

这里仅仅取 P ( O , I ∣ λ ) P(O,I|\lambda) P(O,Iλ)的对数, P ( I ∣ O , λ ‾ ) P(I|O,\overline{\lambda}) P(IO,λ)是在对数的外面。其中, λ ‾ \overline{\lambda} λ是隐马尔可夫模型参数的当前估计值, λ \lambda λ是要极大化的隐马尔可夫模型参数。

并且我们注意到Q函数的后部分,根据条件联合分布公式可得 : P ( I ∣ O , λ ‾ ) = P ( O , I ∣ λ ‾ ) P ( O ∣ λ ‾ ) P(I|O,\overline{\lambda})=\frac{P(O,I|\overline{\lambda})}{P(O|\overline{\lambda})} P(IO,λ)=P(Oλ)P(O,Iλ)。而这个 1 / P ( O ∣ λ ‾ ) 1/P(O|\overline{\lambda}) 1/P(Oλ)其实是一个常数因子,可以省略,因此得到 Q ( λ , λ ‾ ) Q (\lambda,\overline \lambda) Q(λ,λ)为:
Q ( λ , λ ‾ ) = ∑ I log ⁡ P ( O , I ∣ λ ) P ( O , I ∣ λ ‾ ) (3.2.3) Q (\lambda,\overline \lambda) = \sum_I \log P(O,I|\lambda)P(O,I|\overline \lambda)\tag{3.2.3} Q(λ,λ)=IlogP(O,Iλ)P(O,Iλ)(3.2.3)

又因为 P ( O , I ∣ λ ) = π i 1 b i 1 ( o 1 ) a i 1 i 2 b i 2 ( o 2 ) ⋯ a i T − 1 i T b i T ( o T ) P(O,I|\lambda) = \pi_{i_1}b_{i_1}(o_1)a_{i_1i_2}b_{i_2}(o_2)\cdots a_{i_{T-1}i_T}b_{i_T}(o_T) P(O,Iλ)=πi1bi1(o1)ai1i2bi2(o2)aiT1iTbiT(oT),所以

Q ( λ , λ ‾ ) = ∑ I l o g π i 1 P ( O , I ∣ , λ ‾ ) + ∑ I ( ∑ t = 1 T − 1 l o g   a i t i t + 1 ) P ( O , I ∣ , λ ‾ ) + ∑ I ( ∑ t = 1 T l o g   b i t ( o t ) ) P ( O , I ∣ , λ ‾ ) (3.2.4) \begin{array}{ll} Q(\lambda,\overline{\lambda})= & \sum_Ilog\pi_{i_1}P(O,I|,\overline{\lambda})\\ &+\sum_I\left(\sum_{t=1}^{T-1}log\ a_{i_ti_{t+1}}\right)P(O,I|,\overline{\lambda}) \\ &+\sum_I\left(\sum_{t=1}^{T}log\ b_{i_t}(o_t)\right)P(O,I|,\overline{\lambda}) \\ \end{array} \tag{3.2.4} Q(λ,λ)=Ilogπi1P(O,I,λ)+I(t=1T1log aitit+1)P(O,I,λ)+I(t=1Tlog bit(ot))P(O,I,λ)(3.2.4)

此时我们看到待估计的参数刚好分别出现在三个项中,所以只需对各个项分别极大化。

(3) EM算法的M步:极大化Q函数(公式3.2.4)

第一项: ∑ I l o g π i 1 P ( O , I ∣ , λ ‾ ) \sum_Ilog\pi_{i_1}P(O,I|,\overline{\lambda}) Ilogπi1P(O,I,λ)

= ∑ I log ⁡ π i 1 P ( O , I ∣ λ ‾ ) = ∑ j = 1 N log ⁡ π j P ( O , i 1 = j ∣ λ ‾ ) \sum_I \log\pi_{i_1}P(O,I|\overline\lambda) = \sum_{j=1}^N \log \pi_jP(O,i_1=j|\overline\lambda) Ilogπi1P(O,Iλ)=j=1NlogπjP(O,i1=jλ)

注意到 π j \pi_j πj满足约束条件 ∑ j = 1 N π j = 1 \sum_{j=1}^N \pi_j =1 j=1Nπj=1,利用拉格朗日乘子法,写出拉格朗日函数:
f 1 = ∑ j = 1 N log ⁡ π j P ( O , i 1 = j ∣ λ ‾ ) + θ ( ∑ j = 1 N π j − 1 ) f_1=\sum_{j=1}^N \log \pi_j P(O,i_1=j|\overline\lambda) +\theta(\sum_{j=1}^N \pi_j-1) f1=j=1NlogπjP(O,i1=jλ)+θ(j=1Nπj1)

对其求偏导数并令结果为0:
∂ f 1 ∂ π j = ∂ ∂ π j [ ∑ j = 1 N log ⁡ π j P ( O , i 1 = j ∣ λ ‾ ) + θ ( ∑ j = 1 N π j − 1 ) ] = 0 \frac {\partial f_1}{\partial_{\pi_j}}=\frac {\partial}{\partial_{\pi_j}}[\sum_{j=1}^N \log \pi_j P(O,i_1=j|\overline\lambda) +\theta(\sum_{j=1}^N \pi_j-1)]=0 πjf1=πj[j=1NlogπjP(O,i1=jλ)+θ(j=1Nπj1)]=0

注意这里的 π j \pi_j πj其实是个向量,所以后半部分 ∂ ∂ π j γ ( ∑ j = 1 N π j − 1 ) = θ π j \frac {\partial}{\partial \pi_j}\gamma(\sum_{j=1}^N \pi_j-1)=\theta \pi_j πjγ(j=1Nπj1)=θπj,于是得到:
P ( O , i 1 = j ∣ λ ‾ ) + θ π j = 0 P(O,i_1=j|\overline\lambda) +\theta\pi_j=0 P(O,i1=jλ)+θπj=0

对j求和得到拉格朗日因子 θ = − P ( O ∣ λ ‾ ) \theta= - P(O|\overline\lambda) θ=P(Oλ)

于是得:
π j = P ( O , i 1 = j ∣ λ ‾ ) P ( O ∣ λ ‾ ) \pi_j =\frac {P(O,i_1=j|\overline\lambda)}{P(O|\overline\lambda)} πj=P(Oλ)P(O,i1=jλ)

根据上面常用概率的关于 γ \gamma γ的定义 : γ t ( i ) = P ( h t = q i ∣ O , λ ) = P ( h t = q i , O ∣ λ ) P ( O ∣ λ ) :\gamma_t(i) = P(h_t = q_i | O,\lambda) = \frac{P(h_t = q_i ,O|\lambda)}{P(O|\lambda)} :γt(i)=P(ht=qiO,λ)=P(Oλ)P(ht=qi,Oλ)
可得初始状态概率为:
π j = γ 1 ( j ) (3.2.5) \pi_j=\gamma_1(j)\tag{3.2.5} πj=γ1(j)(3.2.5)

第二项: ∑ I ( ∑ t = 1 T − 1 l o g   a i t i t + 1 ) P ( O , I ∣ , λ ‾ ) \sum_I\left(\sum_{t=1}^{T-1}log\ a_{i_ti_{t+1}}\right)P(O,I|,\overline{\lambda}) I(t=1T1log aitit+1)P(O,I,λ)

= ∑ i = 1 N ∑ j = 1 N ∑ t = 1 T − 1 log ⁡ a i j P ( O , i t = i , i t + 1 = j ∣ λ ‾ ) \sum_{i=1}^N \sum_{j=1}^N \sum_{t=1}^{T-1} \log a_{ij} P(O,i_t=i,i_{t+1} =j|\overline\lambda) i=1Nj=1Nt=1T1logaijP(O,it=i,it+1=jλ)

类似第一项,应用具有约束条件 ∑ j = 1 N a i j = 1 \sum_{j=1}^{N}a_{ij}=1 j=1Naij=1的拉格朗日乘子法可以求出:
a i j = ∑ t = 1 T − 1 P ( O , i t = i , i t + 1 = j ∣ λ ‾ ) ∑ t = 1 T − 1 P ( O , i t = i ∣ λ ‾ ) a_{ij}=\frac {\sum_{t=1}^{T-1}P(O,i_t=i,i_{t+1} =j|\overline\lambda)}{\sum_{t=1}^{T-1}P(O,i_t=i|\overline\lambda)} aij=t=1T1P(O,it=iλ)t=1T1P(O,it=i,it+1=jλ)

同样根据 γ t ( j ) \gamma_t(j) γt(j)定义以及 ξ t ( i , j ) \xi_t(i,j) ξt(i,j)的定义 ξ t ( i , j ) = P ( h t = q i , h t + 1 = q j ∣ O , λ ) = P ( h t = q i , h t + 1 = q j , O ∣ λ ) P ( O ∣ λ ) \xi_t(i,j) = P(h_t = q_i, h_{t+1}=q_j | O,\lambda) = \frac{ P(h_t = q_i, h_{t+1}=q_j , O|\lambda)}{P(O|\lambda)} ξt(i,j)=P(ht=qi,ht+1=qjO,λ)=P(Oλ)P(ht=qi,ht+1=qj,Oλ)可得状态转移概率为:
a i j = ∑ t = 1 T − 1 ξ t ( i , j ) ∑ t = 1 T γ t ( j ) (3.2.6) a_{ij}=\frac{\sum_{t=1}^{T-1}\xi_t(i,j)}{\sum_{t=1}^{T}\gamma_t(j)}\tag{3.2.6} aij=t=1Tγt(j)t=1T1ξt(i,j)(3.2.6)

第三项: ∑ I ( ∑ t = 1 T l o g   b i t ( o t ) ) P ( O , I ∣ , λ ‾ ) \sum_I\left(\sum_{t=1}^{T}log\ b_{i_t}(o_t)\right)P(O,I|,\overline{\lambda}) I(t=1Tlog bit(ot))P(O,I,λ)

= ∑ j = 1 N ∑ t = 1 T log ⁡ b j ( o t ) P ( O , i t = j ∣ λ ‾ ) \sum_{j=1}^N\sum_{t=1}^T \log b_j(o_t)P(O,i_t=j|\overline\lambda) j=1Nt=1Tlogbj(ot)P(O,it=jλ)

同样用拉格朗日乘子法,约束条件是 ∑ k = 1 M b j ( k ) = 1 \sum_{k=1}^Mb_j(k)=1 k=1Mbj(k)=1。注意,只有在 o t = v k o_t = v_k ot=vk b j ( o t ) b_j(o_t) bj(ot) b j ( k ) b_j(k) bj(k)的偏导数才不为0,以 I ( o t = v k ) I(o_t = v_k) I(ot=vk)表示,求得:
b j ( k ) = ∑ t = 1 T P ( O , i t = j ∣ λ ‾ ) I ( o t = v k ) ∑ t = 1 T P ( O , i t = j ∣ λ ‾ ) b_j(k) =\frac {\sum_{t=1}^T P(O,i_t =j|\overline\lambda)I(o_t =v_k)}{\sum_{t=1}^T P(O,i_t =j|\overline\lambda)} bj(k)=t=1TP(O,it=jλ)t=1TP(O,it=jλ)I(ot=vk)

同样根据 γ t ( j ) \gamma_t(j) γt(j)定义可得观测状态概率为:
b j ( k ) = ∑ t = 1 , o t = v k T γ t ( j ) ∑ t = 1 T γ t ( j ) (3.2.7) b_j(k)=\frac{\sum_{t=1,o_t=v_k}^{T}\gamma_t(j)}{\sum_{t=1}^{T}\gamma_t(j)}\tag{3.2.7} bj(k)=t=1Tγt(j)t=1,ot=vkTγt(j)(3.2.7)

3. 鲍姆-韦尔奇算法流程总结

输入:观测数据 O = ( o 1 , o 2 , . . . , o T ) O=(o_1,o_2,...,o_T) O=(o1,o2,...,oT)
输出:隐马尔可夫模型参数

(1) 初始化
对n=0,选取 a i j ( 0 ) , b j ( k ) ( 0 ) , π i ( 0 ) a_{ij}^{(0)},b_j(k)^{(0)},\pi_i^{(0)} aij(0),bj(k)(0),πi(0),得到模型 λ ( 0 ) = ( A ( 0 ) , B ( 0 ) , π ( 0 ) ) \lambda^{(0)} = (A^{(0)},B^{(0)},\pi^{(0)}) λ(0)=(A(0),B(0),π(0))

(2) 递推,对n=1,2,…
a i j ( n + 1 ) = ∑ t = 1 T − 1 ξ t ( i , j ) ∑ t = 1 T − 1 γ t ( i ) a_{ij}^{(n+1)} = \frac{\sum_{t=1}^{T-1}\xi_t(i,j)}{\sum_{t=1}^{T-1}\gamma_t(i)} aij(n+1)=t=1T1γt(i)t=1T1ξt(i,j)

b j ( n + 1 ) ( k ) = ∑ t = 1 , o t = v k T γ t ( j ) ∑ t = 1 T γ t ( j ) b_{j}^{(n+1)}(k) = \frac{\sum_{t=1,o_t=v_k}^{T}\gamma_t(j)}{\sum_{t=1}^{T}\gamma_t(j)} bj(n+1)(k)=t=1Tγt(j)t=1,ot=vkTγt(j)

π i ( n + 1 ) = γ 1 ( i ) \pi_i^{(n+1)}=\gamma_1(i) πi(n+1)=γ1(i)

(3) 模型收敛(满足条件)则终止递推,得到模型参数 λ ( n + 1 ) = ( A ( n + 1 ) , B ( n + 1 ) , π ( n + 1 ) ) \lambda^{(n+1) } =(A^{(n+1)},B^{(n+1)},\pi^{(n+1)}) λ(n+1)=(A(n+1),B(n+1),π(n+1))


参考:


THE END.

  • 3
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值