机器学习(8)-隐马尔可夫模型

这篇文章将会讲解隐马尔可夫模型,我将主要从以下四个方面展开:

模型的定义

隐马尔可夫模型其实是由三个分布确定的模型:即初始概率分布状态转移概率分布以及观测概率分布,隐马尔可夫模型可以理解为由一个隐藏的马尔科夫链随机生成不可观测的状态随机序列,再由各个状态生成一个观测随机序列的过程,状态序列由状态转移概率分布随机产生,是我们不可知的一个随机序列,观测序列由观测概率分布随机产生,是我们最终得到的观测数据。下面用数学符号来表示这个模型:
我们设Q是所有可能的状态集合,V是所有可能的观测集合:
Q = { q 1 , q 2 , . . . , q N } , V = { v 1 , v 2 , . . . , v M } Q=\{q_1,q_2,...,q_N\},V=\{v_1,v_2,...,v_M\} Q={q1,q2,...,qN},V={v1,v2,...,vM}
N是可能的状态数,M是可能的观测数。假设产生的观测序列长度为T,I是状态序列,O是对应的观测序列:
I = ( i 1 , i 2 , . . . , i T ) , O = ( o 1 , o 2 , . . . , o T ) I=(i_1,i_2,...,i_T), O=(o_1,o_2,...,o_T) I=(i1,i2,...,iT),O=(o1,o2,...,oT)
A是状态转移矩阵:
A = [ a i j ] N × N , 其 中 a i j = P ( i t + 1 = q j ∣ i t = q i ) A=[a_{ij}]_{N\times N},其中a_{ij}=P(i_{t+1}=q_j|i_t=q_i) A=[aij]N×Naij=P(it+1=qjit=qi)
表示从t时刻 q i q_i qi的状态转移到t+1时刻 q j q_j qj的状态的概率,B是观测概率矩阵:
B = [ b j ( k ) ] N × M , 其 中 b j ( k ) = P ( o t = v k ∣ i t = q j ) B=[b_j(k)]_{N\times M},其中b_j(k)=P(o_t=v_k|i_t=q_j) B=[bj(k)]N×M,bj(k)=P(ot=vkit=qj)
表示t时刻处于状态 q j q_j qj的条件下生成观测 v k v_k vk的概率, π \pi π是初始转态概率向量:
π = ( π i ) , 其 中 π i = P ( i 1 = q i ) \pi=(\pi_{i}),其中\pi_i=P(i_1=q_i) π=(πi),πi=P(i1=qi)
即t=1时刻处于状态 q i q_i qi的概率,因为HMM模型由三个分布确定,因此HMM模型可以表示为:
λ = ( A , B , π ) \lambda=(A,B,\pi) λ=(A,B,π)
除此之外隐马尔可夫模型还有两个基本假设:
(1)齐次马尔可夫性假设,即假设任意时刻t的转态只依赖于前一时刻的状态,与其他任意时刻无关:
P ( i t ∣ i t − 1 , o t − 1 , . . . , i 1 , o 1 ) = P ( i t ∣ i t − 1 ) P(i_t|i_{t-1},o_{t-1},...,i_1,o_1)=P(i_t|i_{t-1}) P(itit1,ot1,...,i1,o1)=P(itit1)
(2)观测独立性假设,即假设任意时刻的观测只依赖于当前时刻的状态,与其他时刻的状态和观测无关:
P ( o t ∣ i T , o T , i T − 1 , o T − 1 , . . . . , i t + 1 , o t + 1 , i t , i t − 1 , o t − 1 , . . . , i 1 , o 1 ) = P ( o t ∣ i t ) P(o_t|i_T,o_T,i_{T-1},o_{T-1},....,i_{t+1},o_{t+1},i_t,i_{t-1},o_{t-1},...,i_1,o_1)=P(o_t|i_t) P(otiT,oT,iT1,oT1,....,it+1,ot+1,it,it1,ot1,...,i1,o1)=P(otit)
下面介绍一下隐马尔可夫模型常见的三个问题:
(1)概率计算问题,给定模型 λ = ( A , B , π ) \lambda=(A,B,\pi) λ=(A,B,π)和观测序列 O = ( o 1 , o 2 , . . . , o T ) O=(o_1,o_2,...,o_T) O=(o1,o2,...,oT),计算在模型 λ \lambda λ下观测序列O出现的概率 P ( O ∣ λ ) P(O|\lambda) P(Oλ)
(2)学习问题,已知观测序列 O = ( o 1 , o 2 , . . . , o T ) O=(o_1,o_2,...,o_T) O=(o1,o2,...,oT),估计模型参数 λ = ( A , B , π ) \lambda=(A,B,\pi) λ=(A,B,π),使得在该模型下观测序列概率 P ( O ∣ λ ) P(O|\lambda) P(Oλ)最大
(3)预测问题,已知模型 λ = ( A , B , π ) \lambda=(A,B,\pi) λ=(A,B,π)和观测序列 O = ( o 1 , o 2 , . . . , o T ) O=(o_1,o_2,...,o_T) O=(o1,o2,...,oT),求在给定观测序列的条件下,最有可能的状态序列,即求条件概率 P ( I ∣ O ) P(I|O) P(IO)最大的状态序列 I = ( i 1 , i 2 , . . . , i T ) I=(i_1,i_2,...,i_T) I=(i1,i2,...,iT)
下面就分别介绍如何求解上述三个问题

概率计算问题

给定模型和观测序列,求观测序列的概率主要有三种方法(1)直接计算法(2)前向算法(3)后向算法
直接计算法
思路:按概率公式直接计算,列举出所有可能的长度为T的状态序列,求在不同状态序列下得到观测序列的概率,然后对所有的可能情况求和:
P ( O ∣ λ ) = ∑ I P ( O ∣ I , λ ) P ( I ∣ λ ) P(O|\lambda)=\sum_IP(O|I,\lambda)P(I|\lambda) P(Oλ)=IP(OI,λ)P(Iλ)
上述方法的时间复杂度为 O ( T N T ) O(TN^T) O(TNT),这在计算上显然是不可行的
前向算法
前向算法的本质是利用动态规划的思想,减少了很多重复计算的步骤,时刻t的结果直接从时刻t-1得到,而不需要从头计算,具体步骤如下:
首先定义前向概率 α t ( i ) = P ( o 1 , o 2 , . . . , o t , i t = q i ∣ λ ) \alpha_t(i)=P(o_1,o_2,...,o_t,i_t=q_i|\lambda) αt(i)=P(o1,o2,...,ot,it=qiλ)表示到时刻t部分的观测序列为 ( o 1 , o 2 , . . . , o t ) (o_1,o_2,...,o_t) (o1,o2,...,ot)且时刻t的状态为 q i q_i qi的概率
根据上述定义可以得到,初始时刻t=1的前向概率为: α 1 ( i ) = π i b i ( o 1 ) , i = 1 , 2 , . . . , N \alpha_1(i)=\pi_ib_i(o_1), \quad i=1,2,...,N α1(i)=πibi(o1),i=1,2,...,N,由此可以递推得到任意时刻的前向概率:
α t + 1 ( i ) = [ ∑ j = 1 N α t ( j ) a j i ] b i ( o t + 1 ) i = 1 , 2 , . . . , N , t = 1 , 2 , . . . , T − 1 \alpha_{t+1}(i)=\left[\sum_{j=1}^N\alpha_t(j)a_{ji}\right]b_i(o_{t+1}) \quad i=1,2,...,N, t=1,2,...,T-1 αt+1(i)=[j=1Nαt(j)aji]bi(ot+1)i=1,2,...,N,t=1,2,...,T1
由此可以得出最终的概率: P ( O ∣ λ ) = ∑ i = 1 N α T ( i ) P(O|\lambda)=\sum_{i=1}^N\alpha_T(i) P(Oλ)=i=1NαT(i)
后向算法
思路和前向算法是一样的,只不过后向算法是从后往前递推,首先定义后向概率 β t ( i ) = P ( o t + 1 , o t + 2 , . . . , o T ∣ i t = q i , λ ) \beta_t(i)=P(o_{t+1},o_{t+2},...,o_T|i_t=q_i,\lambda) βt(i)=P(ot+1,ot+2,...,oTit=qi,λ),表示在时刻t状态为 q i q_i qi的条件下,从t+1到T的部分观测序列为 ( o t + 1 , o t + 2 , o T ) (o_{t+1},o_{t+2},o_T) (ot+1,ot+2,oT)的概率
由定义可以得到初始后向概率为: β T ( i ) = 1 , i = 1 , 2 , . . . , N \beta_T(i)=1,i=1,2,...,N βT(i)=1,i=1,2,...,N
递推可以得到任意时刻的后向概率为:
β t ( i ) = ∑ j = 1 N a i j b j ( o t + 1 ) β t + 1 ( j ) i = 1 , 2 , . . . , N , t = T − 1 , T − 2 , . . . , 1 \beta_t(i)=\sum_{j=1}^Na_{ij}b_j(o_{t+1})\beta_{t+1}(j)\quad i=1,2,...,N ,t=T-1,T-2,...,1 βt(i)=j=1Naijbj(ot+1)βt+1(j)i=1,2,...,N,t=T1,T2,...,1
由此可以得到最终的条件概率 P ( O ∣ λ ) = ∑ i = 1 N π i b i ( o 1 ) β 1 ( i ) P(O|\lambda)=\sum_{i=1}^N\pi_ib_i(o_1)\beta_1(i) P(Oλ)=i=1Nπibi(o1)β1(i)

学习问题

学习问题根据是否给出状态序列分为监督学习方法和无监督学习方法。
监督学习方法
监督学习方法,是已知T个长度相同的观测序列以及对应的状态序列 { ( O 1 , I 1 ) , ( O 2 , I 2 ) , . . . , ( O T , I T ) } \{(O_1,I_1),(O_2,I_2),...,(O_T,I_T)\} {(O1,I1),(O2,I2),...,(OT,IT)}的情况下,利用极大似然估计法来估计隐马尔可夫模型 λ = ( A , B , π ) \lambda=(A,B,\pi) λ=(A,B,π)的参数
1.转移概率 a i j a_{ij} aij的估计
设样本中时刻t状态为i时刻t+1转移到状态j的频数为 A i j A_{ij} Aij,则状态转移概率 a i j a_{ij} aij的估计为:
a ^ i j = A i j ∑ j = 1 N A i j \hat a_{ij}=\frac{A_{ij}}{\sum\limits_{j=1}^NA_{ij}} a^ij=j=1NAijAij
2.观测概率 b j ( k ) b_j(k) bj(k)的估计
设样本中状态为j并观测为k的频数为 B j k B_{jk} Bjk,则观测概率 b j ( k ) b_j(k) bj(k)的估计为:
b ^ j ( k ) = B j k ∑ k = 1 M B j k \hat b_j(k)=\frac{B_{jk}}{\sum\limits_{k=1}^MB_{jk}} b^j(k)=k=1MBjkBjk
3.初始状态概率 π i \pi_i πi的估计
设样本中初始状态为i的频数为 I i I_i Ii,则初始状态概率 π i \pi_i πi的估计为:
π ^ i = I i ∑ i = 1 N I i \hat\pi_i=\frac{I_i}{\sum\limits_{i=1}^NI_i} π^i=i=1NIiIi
无监督学习方法
无监督学习是在没有给定状态序列只有观测序列的情况下,估计隐马尔可夫模型的参数,通过Baum-Welch算法对参数进行估计,也就是EM算法。
首先定义两个变量,(1)给定模型 λ \lambda λ和观测O,在时刻t处于状态i的概率
γ t ( i ) = α t ( i ) β t ( i ) ∑ j = 1 N α j ( t ) β j ( t ) \gamma_t(i)=\frac{\alpha_t(i)\beta_t(i)}{\sum\limits_{j=1}^N\alpha_j(t)\beta_j(t)} γt(i)=j=1Nαj(t)βj(t)αt(i)βt(i)
(2)给定模型 λ \lambda λ和观测 O O O,在时刻t处于状态 q i q_i qi在时刻t+1处于状态 q j q_j qj的概率:
ξ t ( i , j ) = α t ( i ) a i j b j ( o t + 1 ) β t + 1 ( j ) ∑ i = 1 N ∑ j = 1 N α t ( i ) a i j b j ( o t + 1 ) β t + 1 ( j ) \xi_t(i,j)=\frac{\alpha_t(i)a_{ij}b_j(o_{t+1})\beta_{t+1}(j)}{\sum\limits_{i=1}^N\sum\limits_{j=1}^N\alpha_t(i)a_{ij}b_j(o_{t+1})\beta_{t+1}(j)} ξt(i,j)=i=1Nj=1Nαt(i)aijbj(ot+1)βt+1(j)αt(i)aijbj(ot+1)βt+1(j)
α t ( i ) , β t ( i ) \alpha_t(i),\beta_t(i) αt(i)βt(i)是学习问题中的前向概率和后向概率
通过EM算法估计隐马尔可夫模型参数的步骤如下:
(1)初始化,对n=0选取, a i j ( 0 ) , b j ( k ) ( 0 ) , π i ( 0 ) a_{ij}^{(0)},b_j(k)^{(0)},\pi_i^{(0)} aij(0),bj(k)(0),πi(0),得到模型 λ ( 0 ) = ( A ( 0 ) , B ( 0 ) , π ( 0 ) ) \lambda^{(0)}=(A^{(0)},B^{(0)},\pi^{(0)}) λ(0)=(A(0),B(0),π(0))
(2)迭代更新,对 n = 0 , 1 , . . . n=0,1,... n=0,1,...
a i j ( n + 1 ) = ∑ t = 1 T − 1 ξ t ( i , j ) ∑ t = 1 T − 1 γ t ( i ) b j ( k ) ( n + 1 ) = ∑ t = 1 , o t = v k T γ t ( j ) ∑ t = 1 T γ t ( j ) π i ( n + 1 ) = γ 1 ( i ) \begin{aligned} a_{ij}^{(n+1)}&=\frac{\sum\limits_{t=1}^{T-1}\xi_t(i,j)}{\sum\limits_{t=1}^{T-1}\gamma_t(i)}\\ b_j(k)^{(n+1)}&=\frac{\sum\limits_{t=1,o_t=v_k}^T\gamma_t(j)}{\sum\limits_{t=1}^T\gamma_t(j)}\\ \pi_i^{(n+1)}&=\gamma_1(i) \end{aligned} aij(n+1)bj(k)(n+1)πi(n+1)=t=1T1γt(i)t=1T1ξt(i,j=t=1Tγt(j)t=1,ot=vkTγt(j)=γ1(i)
等式右边的值都是根据模型参数 λ ( n ) = ( A ( n ) , B ( n ) , π ( n ) ) \lambda^{(n)}=(A^{(n)},B^{(n)},\pi^{(n)}) λ(n)=(A(n),B(n),π(n))计算得到
(3)停止迭代,得到最终参数模型 λ ( n + 1 ) = ( A ( n + 1 ) , B ( n + 1 ) , π ( n + 1 ) ) \lambda^{(n+1)}=(A^{(n+1)},B^{(n+1)},\pi^{(n+1)}) λ(n+1)=(A(n+1),B(n+1),π(n+1))

预测问题

给定模型参数和观测序列预测状态序列两种方法:(1)近似法(2)维特比算法
近似法
近似法的想法是每一个时刻都选择在该时刻最有可能出现的状态 i t ∗ i_t^* it作为预测状态,最终得到预测状态序列 I ∗ = ( i 1 ∗ , i 2 ∗ , . . , i T ∗ ) I^*=(i_1^*,i_2^*,..,i_T^*) I=(i1,i2,..,iT)
在每一个时刻t处于转态 q i q_i qi的概率为 γ t ( i ) \gamma_t(i) γt(i),,则
i t ∗ = arg max ⁡ 1 ≤ i ≤ N [ γ t ( i ) ] , t = 1 , 2 , . . . , T i_t^*=\argmax_{1\leq i\leq N}[\gamma_t(i)],\quad t=1,2,...,T it=1iNargmax[γt(i)],t=1,2,...,T
近似法虽然计算简单,但是通过这样的方法求出来的预测状态序列不能保证在整体上是最有可能的转态序列,因为转态转移概率有为零的部分,会导致预测的状态序列有可能有实际不会发生的部分
维特比算法
维特比算法是通过动态规划的方法来求解最大概率路径,维特比算法基于这样一种思想:假设最优路径在时刻t的转态为 i t ∗ i_t^* it此时可以将最优路径分为两部分路径,一部分是从 i 1 ∗ i_1^* i1 i t ∗ i_t^* it,另一部分是从 i t ∗ i_t^* it i T ∗ i_T^* iT,那么从 i 1 ∗ i_1^* i1 i t ∗ i_t^* it一定是所有从时刻1到时刻t的状态路径中最优的,如果不是的话我们可以将更优的这条路径和从 i t ∗ i_t^* it i T ∗ i_T^* iT这个部分连接起来形成一条更优的路径,那这和从 i 1 ∗ i_1^* i1 i T ∗ i_T^* iT为最优路径这个假设矛盾。
下面我们设 δ t ( i ) \delta_t(i) δt(i)为时刻t状态为i的所有路径中概率最大值:
δ t ( i ) = max ⁡ i 1 , i 2 , . . . , i t − 1 P ( i t = i , i t − 1 , . . . , i 1 , o t , . . . , o 1 ∣ λ ) , i = 1 , 2 , . . . , N \delta_t(i)=\max_{i_1,i_2,...,i_{t-1}}P(i_t=i,i_{t-1},...,i_1,o_t,...,o_1|\lambda),i=1,2,...,N δt(i)=i1,i2,...,it1maxP(it=i,it1,...,i1,ot,...,o1λ),i=1,2,...,N
由此可以得到 δ \delta δ的转态转移方程为:
δ t + 1 ( i ) = max ⁡ 1 ≤ j ≤ N [ δ t ( j ) a j i ] b i ( o t + 1 ) \delta_{t+1}(i)=\max_{1\leq j\leq N}[\delta_t(j)a_{ji}]b_i(o_{t+1}) δt+1(i)=1jNmax[δt(j)aji]bi(ot+1)
定义 ψ t ( i ) \psi_t(i) ψt(i)为时刻t状态为i的所有路径中概率最大对应的路径的第t-1个结点状态:
ψ t ( i ) = arg max ⁡ 1 ≤ j ≤ N δ t − 1 ( j ) a j i , i = 1 , 2 , . . . , N \psi_t(i)=\argmax_{1\leq j \leq N}\delta_{t-1}(j)a_{ji}, \quad i=1,2,...,N ψt(i)=1jNargmaxδt1(j)aji,i=1,2,...,N
初始条件为:
δ 1 ( i ) = π i b i ( o 1 ) , i = 1 , 2 , . . . , N \delta_1(i)=\pi_ib_i(o_1), \quad i=1,2,...,N δ1(i)=πibi(o1),i=1,2,...,N
ψ 1 ( i ) = 0 , i = 1 , 2 , . . . , N \psi_1(i)=0, \quad i=1,2,...,N ψ1(i)=0,i=1,2,...,N
通过转移方程可以得到最优路径的概率为:
P ∗ = max ⁡ 1 ≤ j ≤ N δ T ( j ) P^*=\max_{1\leq j\leq N}\delta_T(j) P=1jNmaxδT(j)
以及最优路径对应的时刻T的状态为:
i T ∗ = arg max ⁡ 1 ≤ j ≤ N [ δ T ( j ) ] i_T^*=\argmax_{1\leq j \leq N}[\delta_T(j)] iT=1jNargmax[δT(j)]
最后通过最优路径回溯就可以得到最优的状态序列:
i t ∗ = ψ t + 1 ( i t + 1 ∗ ) , t = T − 1 , T − 2 , . . . , 1 i_t^*=\psi_{t+1}(i_{t+1}^*),\quad t=T-1,T-2,...,1 it=ψt+1(it+1),t=T1,T2,...,1

代码实现

下面的代码实现了如何通过维特比算法对状态序列进行预测

	def predict(self, testfile):
		pi, A, B = self.pi, self.A, self.B

		with open(testfile, 'r', encoding='utf-8') as f:
			lines = f.readlines()

		
		for line in lines:
			line = line.strip()
			print('origin line is {}'.format(line))
			lenl = len(line)
			#维特比算法,进行译码
			delta = np.zeros((lenl, 4))
			psi = np.zeros((lenl, 4)).astype('int')
			for i in range(4):
				delta[0][i] = pi[i] + B[i][ord(line[0])]
			for t in range(1, lenl):
				for i in range(4):
					tmpdelta = list(delta[t-1] + A[:,i] + B[i][ord(line[t])])
					delta[t][i] = max(tmpdelta)
					maxindex = tmpdelta.index(delta[t][i]) #到达当前状态的最优路径
					psi[t][i] = maxindex
			predictlabel = []
			iop_t = np.argmax(delta[lenl-1])
			#状态回溯
			predictlabel.append(iop_t)
			for i in range(lenl-1, 0, -1):
				# print(iop_t)
				iop_t = psi[i][iop_t]
				predictlabel.append(iop_t)
			predictlabel.reverse()
			pre_line = ''
			# print(predictlabel)
			for i in range(lenl):
				pre_line += line[i]
				if (predictlabel[i] == 3 or predictlabel[i] == 2) and i != lenl - 1:
					pre_line += '|'
			print('after participling, line is {}'.format(pre_line))

完整的代码可以在我GitHub项目Machine-Learning-code中进行下载,如有错误或者问题欢迎提出,如果觉得对你有用的话,欢迎star~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值