通过hmmlearn学习使用GaussianHMM高斯隐马尔科夫模型模型

HMM主要解决的三个问题。
假设隐藏状态序列和观测状态序列分别使用Z和X表示,则解决的3个问题可表示为:
1.解码问题:已知模型参数和X,估计最可能的Z;维特比算法
2.概率问题:已知模型参数和X,估计X出现的概率;向前-向后算法
3.学习问题:仅给出X和隐藏层个数,估计模型参数。 B-W算法,通常是经过一定数量的训练以后,得到模型,然后解决问题1和2。
小贴士:
使用隐马尔可夫如何实现分类或者聚类?
设置一个得分阈值T,例如T属于(-1000,0),步长为100,然后迭代计算准确率和召回率,取出现准确率和召回率最好情况的阈值T作为分类,聚类判定点。

下面代码使用GaussianHMM,解决问题3的例子:

#coding=utf-8
'''
Created on 2018-1-22

@author: 10205025
'''
import numpy as np
from hmmlearn import hmm

# 这里假设隐藏层数量为5个    
model = hmm.GaussianHMM(n_components=5, n_iter=1000, tol=0.01,covariance_type="full")

X1 = np.array([[2], [1],[0]])
X2 = np.array([[2], [1],[0],[2]])
X3 = np.array([[2], [1],[1]])
X4 = np.array([[2], [1],[0]])
X5 = np.array([[1], [2],[0]])

X = np.vstack((X1,X2,X3,X4,X5))
print X
# [[2]
#  [1]
#  [0]
#  [2]
#  [1]
#  [0]
#  [2]
#  [2]
#  [1]
#  [1]
#  [2]
#  [1]
#  [0]
#  [1]
#  [2]
#  [0]]

# 这里分别为X1,X2,X3,X4,X5的长度
X_lens = [3,4,3,3,3]
model.fit(X,X_lens)

# 转换矩阵
print model.transmat_
# [[  4.90994062e-267   8.00000000e-001   1.00000000e-001   1.00000000e-001
#     4.90994062e-267]
#  [  1.00000000e-001   2.00000000e-001   3.00000000e-001   3.00000000e-001
#     1.00000000e-001]
#  [  5.00000000e-001   3.59090699e-133   2.80458184e-133   2.80458184e-133
#     5.00000000e-001]
#  [  5.00000000e-001   3.59090699e-133   2.80458184e-133   2.80458184e-133
#     5.00000000e-001]
#  [  4.90994062e-267   8.00000000e-001   1.00000000e-001   1.00000000e-001
#     4.90994062e-267]]

# 正常的序列
test1 = np.array([[2, 1,0,2,1,0]]).T
print test1
# [[2]
#  [1]
#  [0]
#  [2]
#  [1]
#  [0]]
score = model.score(test1)
print score
# 10.1943163957

# 不正常的序列
test2 = np.array([[2, 1,0,2,1,0,3]]).T
print test2
# [[2]
#  [1]
#  [0]
#  [2]
#  [1]
#  [0]
#  [3]]
score = model.score(test2)
print score
# -137.8727309
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值