隐马尔可夫模型
对语音识别系统而言,观测符号通常就是从各个短时语音帧提取计算而得的声学特征。
观察到的状态序列与隐藏过程有一定的概率关系,
这个模型包含了一个底层隐藏的随时间改变的马尔科夫过程(即称为隐马尔科夫),
以及一个与隐藏状态的某种程度相关的课观测到的状态集合
因此,隐马尔科夫模型是在一个标准的马尔科夫过程中引入一组观测状态,以及其与隐藏状态间的一些概率关系。
(1)评估问题
一种计算观察序列概率的方法是找到每一个可能的隐藏状态,并且将这些隐藏状态下的观测序列概率相加。
前向概率
(2)解码问题
一种找到最可能的隐藏状态的序列的方法是列出所有可能的隐藏状态序列并且计算对于每种组合相应的观察序列的概率,概率最大的即为最可能的隐藏状态。
在t-1时刻系统必须处于某种状态,该状态导致了系统在t时刻到达状态i是最佳的,这种记录(记忆)是通过对每一个状态赋予一个反向指针完成的,这个指针指向最优的引发当前状态的前一时刻的某种状态。
Viterbi算法不是简单的对于某个给定的时间点选择最可能的隐藏状态,而是基于全局序列做决策,因此,如果在观察序列中有一个“非寻常”事件发生,对于Viterbi算法的结果也影响不大。这在语音处理中是特别有价值的,譬如当某个单词的发音的一个中间音素出现失真或丢失的情况,该单词也可以被识别出来。
(3)学习问题:(Baum-Welch算法 前向-后向算法 容易陷入局部最优)
找到一组最有的HMM模型参数使P(观测序列/模型)的概率最大
前向后向算法可以以一个观测序列为基础来进行估计HMM参数,而这个观测序列来自于一个给定的集合,他所代表的是一个HMM中的一个已知的隐藏集合。
前向-后向算法首先对于隐马尔科夫模型的参数进行一个初始的估计(这很可能是错误的),然后通过对于给定的数据评估这些参数的价值并减少它们引起的错误来重新修订这些HMM参数。从这个意义上讲,它是一种梯度下降的形式寻找一种错误测度的最小值。