- 博客(8)
- 资源 (1)
- 收藏
- 关注
转载 HMM学习最佳范例六:维特比算法3
六、维特比算法(Viterbi Algorithm)寻找最可能的隐藏状态序列(Finding most probable sequence of hidden states) 2d.反向指针,’s 考虑下面这个网格 在每一个中间及终止状态我们都知道了局部概率,(i,t)。然而我们的目标是在给定一个观察序列的情况下寻找网格中最可能的隐藏状态序列——因此,我们需要一
2009-08-21 15:17:00 1446
转载 HMM学习最佳范例六:维特比算法2
六、维特比算法(Viterbi Algorithm)寻找最可能的隐藏状态序列(Finding most probable sequence of hidden states) 2b.计算t=1时刻的局部概率’s 我们计算的局部概率是作为最可能到达我们当前位置的路径的概率(已知的特殊知识如观察概率及前一个状态的概率)。当t=1的时候,到达某状态的最可能路径明显是不存在的;
2009-08-21 15:14:00 1251
转载 HMM学习最佳范例六:维特比算法1
六、维特比算法(Viterbi Algorithm)寻找最可能的隐藏状态序列(Finding most probable sequence of hidden states) 对于一个特殊的隐马尔科夫模型(HMM)及一个相应的观察序列,我们常常希望能找到生成此序列最可能的隐藏状态序列。1.穷举搜索 我们使用下面这张网格图片来形象化的说明隐藏状态和观察状态之间的关系:
2009-08-21 15:11:00 1171
转载 HMM学习最佳范例五:前向算法4
void Forward(HMM *phmm, int T, int *O, double **alpha, double *pprob){ int i, j; /* state indices */ int t; /* time index */ double sum; /* partial sum */ /* 1. Initialization */ for (i = 1; i
2009-08-21 14:57:00 749
转载 HMM学习最佳范例五:前向算法3
五、前向算法(Forward Algorithm)前向算法定义(Forward algorithm definition) 我们使用前向算法计算T长观察序列的概率: 其中y的每一个是观察集合之一。局部(中间)概率(’s)是递归计算的,首先通过计算t=1时刻所有状态的局部概率: 然后在每个时间点,t=2,… ,T时,对于每个状态的局部概率,由下式计算局
2009-08-21 14:53:00 1072
转载 HMM学习最佳范例五:前向算法2
五、前向算法(Forward Algorithm)计算观察序列的概率(Finding the probability of an observed sequence)2b.计算t=1时的局部概率’s 我们按如下公式计算局部概率: t ( j )= Pr( 观察状态 | 隐藏状态j ) x Pr(t时刻所有指向j状态的路径) 特别当t=1时,没有任何指向当前状态的路径。故t=1
2009-08-21 14:44:00 1135
转载 HMM学习最佳范例五:前向算法1
http://www.comp.leeds.ac.uk/roger/HiddenMarkovModels/html_dev/main.html http://www.52nlp.cn/hmm-learn-best-practices-five-forward-algorithm-1 五、前向算法(Forward Algorithm)计算观察序列的概率(Finding the
2009-08-21 14:33:00 924
转载 HMM学习最佳范例四:隐马尔科夫模型
四、隐马尔科夫模型(Hidden Markov Models)1、定义(Definition of a hidden Markov model) 一个隐马尔科夫模型是一个三元组(, A, B)。 :初始化概率向量; :状态转移矩阵; :混淆矩阵; 在状态转移矩阵及混淆矩阵中的每一个概率都是时间无关的——也就是说,当系统演化时这些矩阵并不随时间改变。实际上,这是马尔科夫模型关于真实世界
2009-08-21 14:21:00 1901
Spoken Language Processing A Guide to Theory Algorithm and System Development
2008-07-05
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人