关于HMM的相关论文的理解(1)

最近在看论文The Application of Hidden Markov Models in Speech Recognition,英文的文献,大家有兴趣可以去看一下。看了这篇论文一部分之后,尝试进行这一部分的讲解,发现说的不是很好,知识不连贯,一些问题没有深究,对论文的理解并没有自己想象中的好。所以本次想尝试在此篇文章中讨论一下对论文的理解,算是一种知识巩固吧。自己理解,难免有不恰当的地方,欢迎大家一起讨论。
摘要和第一章 主要简单介绍了一下HMM,就不进行复述了。来看第二章Architecture of an HMM-Based Recogniser
a large vocabulary continuous speech recognition大词汇量连续语音识别器主要组成部分如图2.1:
在这里插入图片描述
其中Y是特征提取过程中产生的,麦克风输入的声波转换成一系列大小固定的声学矢量 Y1:T = y1, …, yT 。解码器尝试找到产生上述声学矢量可能性最大的一组词w1:L = w1,…,wL即求下面公式的值:
对公式进行一下解释:argmax(f(x))是使得 f(x)取得最大值所对应的变量点x(或x的集合)。对于我们的公式来说是求使得P(w|Y)取得最大值所对应的w。

在这里插入图片描述
然而,因为直接对P(w|Y)建模是困难的,可以将上述式子转换为一个等价的式子,式子是等价的式子,通过贝叶斯转换,将在分母上的P(Y)作为常量可以省去。式子中的p(Y|w)是声学模型决定的,P(w)是语言模型决定的。在这里插入图片描述
声音的基本单位是音素phone。举个例 子,bat由/b/ /ae/ /t/三个音素组成。对于任何给定的w,相对应的声学模型是通过串联音素模型合成的,是为了生成发音字典定义的词。音素模型的参数是通过训练语音和orthographic transcriptions的数据得到的。语言模型通常是N-gram模型,每个词的概率仅与他的N-1个词有关。通过在适当的文本语料库中计算N-tuples来估计N-gram参数。
解码器通过使用修剪搜索所有可能的单词序列来操作以移除不太可能的假设,从而保持搜索易处理。当达到话语结束时,输出最可能的单词序列。或者,现代解码器可以生成包含最可能假设的紧凑格式。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值