语音识别中的CTC算法的基本原理解释

目前主流的语音识别都大致分为特征提取,声学模型,语音模型几个部分。目前结合神经网络的端到端的声学模型训练方法主要CTC和基于Attention两种。

本文主要介绍CTC算法的基本概念,可能应用的领域,以及在结合神经网络进行CTC算法的计算细节。

CTC算法概念

CTC算法全称叫:Connectionist temporal classification。从字面上理解它是用来解决时序类数据的分类问题。

传统的语音识别的声学模型训练,对于每一帧的数据,需要知道对应的label才能进行有效的训练,在训练数据之前需要做语音对齐的预处理。而语音对齐的过程本身就需要进行反复多次的迭代,来确保对齐更准确,这本身就是一个比较耗时的工作。

这里写图片描述
图1 “你好”发音的波形示意图

如图1所示,是“你好”这句话的声音的波形示意图, 每个红色的框代表一帧数据,传统的方法需要知道每一帧的数据是对应哪个发音音素。比如第1,2,3,4帧对应n的发音,第5,6,7帧对应i的音素,第8,9帧对应h的音素,第10,11帧对应a的音素,第12帧对应o的音素。(这里暂且将每个字母作为一个发音音素)

与传统的声学模型训练相比,采用CTC作为损失函数的声学模型训练,是一种完全端到端的声学模型训练,不需要预先对数据做对齐,只需要一个输入序列和一个输出序列即可以训练。这样就不需要对数据对齐和一一标注,并且CTC直接输出序列预测的概率,不需要外部的后处理。

既然CTC的方法是关心一个输入序列到一个输出序列的结果,那么它只会关心预测输出的序列是否和真实的序列是否接近(相同),而不会关心预测输出序列中每个结果在时间点上是否和输入的序列正好对齐。
这里写图片描述
图2 ctc预测结果示意图

CTC引入了blank(该帧没有预测值),每个预测的分类对应的一整段语音中的一个spike(尖峰),其他不是尖峰的位置认为是blank。对于一段语音,CTC最后的输出是spike(尖峰)的序列,并不关心每一个音素持续了多长时间。
如图2所示,拿前面的nihao的发音为例,进过CTC预测的序列结果在时间上可能会稍微延迟于真实发音对应的时间点,其他时间点都会被标记会blank。
这种神经网络+CTC的结构除了可以应用到语音识别的声学模型训练上以外,也可以用到任何一个输入序列到一个输出序列的训练上(要求:输入序列的长度大于输出序列)。
比如,OCR识别也可以采用RNN+CTC的模型来做,将包含文字的图片每一列的数据作为一个序列输入给RNN+CTC模型,输出是对应的汉字,因为要好多列才组成一个汉字,所以输入的序列的长度远大于输出序列的长度。而且这种实现方式的OCR识别,也不需要事先准确的检测到文字的位置,只要这个序列中包含这些文字就好了。

RNN+CTC模型的训练

下面介绍在语音识别中,RNN+CTC模型的训练详细过程,到底RNN+CTC是如何不用事先对齐数据来训练序列数据的。
首先,CTC是一种损失函数,它用来衡量输入的序列数据经过神经网络之后,和真实的输出相差有多少。

比如输入一个200帧的音频数据,真实的输出是长度为5的结果。 经过神经网络处理之后,出来的还是序列长度是200的数据。比如有两个人都说了一句nihao这句话,他们的真实输出结果都是nihao这5个有序的音素,但是因为每个人的发音特点不一样,比如,有的人说的快有的人说的慢,原始的音频数据在经过神经网络计算之后,第一个人得到的结果可能是:nnnniiiiii…hhhhhaaaaaooo(长度是200),第二个人说的话得到的结果可能是:niiiiii…hhhhhaaaaaooo(长度是200)。这两种结果都是属于正确的计算结果,可以想象,长度为200的数据,最后可以对应上nihao这个发音顺序的结果是非常多的。CTC就是用在这种序列有多种可能性的情况下,计算和最后真实序列值的损失值的方法。

详细描述如下:

训练集合为S={(x1,z1),(x2,z2),...(xN,zN)}, 表示有N个训练样本,x是输入样本,z是对应的真实输出的label。一个样本的输入是一个序列,输出的label也是一个序列,输入的序列长度大于输出的序列长度。

对于其中一个样本(x,z)x=(x1,x2,x3,...,xT)表示一个长度为T帧的数据,每一帧的数据是一个维度为m的向量,即每个xiRmxi可以理解为对于一段语音,每25ms作为一帧,其中第i帧的数据经过MFCC计算后得到的结果。

z=(z1,z2,z3,...zU)表示这段样本语音对应的正确的音素。比如,一段发音“你好”的声音,经过MFCC计算后,得到特征x, 它的文本信息是“你好”,对应的音素信息是z=[n,i,h,a,o](这里暂且将每个拼音的字母当做一个音素)。

特征x在经过RNN的计算之后,在经过一个softmax层,得到音素的后验概率yykt(k=1,2,3,...n,t=1,2,3,...,T)表示在t时刻,发音为音素k的概率,其中音素的种类个数一共n个, k表示第k个音素,在一帧的数据上所有的音素概率加起来为1。即:

t1Tykt=1,ykt0

这个过程可以看做是对输入的特征数据x做了变换Nw:(Rm)T(Rn)T,其中Nw表示RNN的变换,w表示RNN中的参数集合。

过程入下图所示:
这里写图片描述

以一段“你好”的语音为例,经过MFCC特征提取后产生了30帧,每帧含有12个特征,即xR30×14(这里以14个音素为例,实际上音素有200个左右),矩阵里的每一列之和为1。后面的基于CTC-loss的训练就是基于后验概率y计算得到的。

路径π和B变换

在实际训练中并不知道每一帧对应的音素,因此进行训练比较困难。可以先考虑一种简单的情况,已知每一帧的音素的标签z, 即训练样本为xz,其中z不再是简单的[n,i,h,a,o]标签,而是:

z=[n,n,n,...,nT1,i,i,i,...iT2,h,h,h,...hT3,a,a,a,...,aT4,o,o,o,...,oT5]

T1+T2+T3+T4+T5=T
在我们的例子中, z=[n,n,n,n,n,n,n,i,i,i,i,i,i,h,h,h,h,h,h,h,a,a,a,a,a,a,o,o,o,o,o,o,o]z包含了每一帧的标签。在这种情况下有:
p(z|x)=p(z|y=Nw(x))=yz11yz22yz33....yzTT (1)

该值即为后验概率图中用黑线圈起来的部分相乘。我们希望相乘的值越大越好,因此,数学规划可以写为:

minwlog(yz11.yz22.yz33...yzTT) (2)

subject to: y=Nw(x) (3)

目标函数对于后验概率矩阵y中的每个元素ykt的偏导数为:
log(yz11.yz22.yz33...yzTT)ykt={yz11...yzi1i1.yzi+1i+1....yzTTyz11.yz22.yz33...yzTT,ifk=ziandt=i0

也就是说,在每个时刻t(对应矩阵的一列),目标只与yztt是相关的,在这个例子中是与被框起来的元素相关。

其中Nw可以看做是RNN模型,如果训练数据的每一帧都标记了正确的音素,那么训练过程就很简单了,但实际上这样的标记过的数据非常稀少,而没有逐帧标记的数据很多,CTC可以做到用未逐帧标记的数据做训练。

首先定义几个符号:
L={a,o,e,i,u,uˇ,b,p,m,...}

表示所有音素的集合

π=(π1,π2,π3,...,πT),πiL

表示一条由L中元素组成的长度为T的路径,比如z就是一条路径,以下为几个路径的例子:

π1=(j,j,i,n,y,y,e,e,w,w,u,u,u,r,r,e,e,n,n,r,r,u,u,sh,sh,u,u,i,i)
π2=(n,n,n,n,i,i,i,i,h,h,h,h,a,a,a,a,a,a,a,a,a,o,o,o,o,o,o,o,o,o)
π3=(h,h,h,h,h,h,a,a,a,a,a,a,a,o,o,o,o,n,n,n,n,n,n,i,i,i,i,i,i,i)
π4=(n,i,h,a,o,o,o,o,o,o,o,o,o,o,o,o,o,o,o,o,o,o,o,o,o,o,o,o,o,o,o)
π5=(n,n,n,n,n,n,n,n,n,n,n,n,n,n,n,n,n,n,n,n,n,n,n,n,i,h,a,o)
π6=(n,n,n,i,i,i,h,h,h,h,h,a,,o,o,o,o,o,o,o,o,o,o,o,o,o,o,o,o,o,o)

这6条路径中,π1可以被认为是“今夜无人入睡”, π2可以被认为是在说“你好”,π3可以被认为是在说“好你”,π4,π5,π6都可以认为是在说“你好”。

定义B变换,表示简单的压缩,例如:
B(a,a,a,b,b,b,c,c,d)=(a,b,c,d)

以上6条路径为例:
B(π1)=(j,i,n,y,e,w,u,r,e,n,r,u,s,h,u,i)
B(π2)=(n,i,h,a,)
B(π3)=(h,a,o,n,i)
B(π4)=(n,i,h,a,o)
B(π5)=(n,i,h,a,o)
B(π6)=(n,i,h,a,o)

因此,如果有一条路径πB(π)=(n,i,h,a,o),则可以认为π是在说“你好”。即使它是如π4所示,有很多“o”的音素,而其他音素很少。路径π=(π1,π2,...,πT)的概率为它所经过的矩阵y上的元素相乘:

p(π|x)=p(π|y=Nw(x))=p(π|y)=t=1Tyπtt

因此在没有对齐的情况下,目标函数应该为{π|B(π)=z}中所有元素概率之和。 即:
maxwp(z|y=Nw(x))=p(z|x)=B(π)=zp(π|x) (4)

在T=30,音素为[n,i,h,a,o]的情况下,共有C295120000条路径可以被压缩为[n,i,h,a,o]。 路径数目的计算公式为CT1,量级大约为(T1)。一段30秒包含50个汉字的语音,其可能的路径数目可以高达108,显然这么大的路径数目是无法直接计算的。因此CTC方法中借用了HMM中的向前向后算法来计算。

训练实施方法

CTC的训练过程是通过p(z|x)w调整w的值使得4中的目标值最大,而计算的过程如下:
这里写图片描述

因此,只要得到p(z|x)ykt,即可根据反向传播,得到p(z|x)w。下面以“你好”为例,介绍该值的计算方法。

首先,根据前面的例子,找到所有可能被压缩为z=[n,i,h,a,o]的路径,记为{π|B(π)=z}。 可知所有π均有[n,n,n,....,n,i,.....,i,h,.....h,a,....a,o,...,o]的形式,即目标函数只与后验概率矩阵y中表示n,i,h,a,o的5行相关,因此为了简便,我们将这5行提取出来,如下图所示。

这里写图片描述

在每一个点上,路径只能向右或者向下转移,画出两条路径,分别用q和r表示,这两条路径都经过yh14这点,表示这两点路径均在第14帧的时候在发“h”音。因为在目标函数4的连加项中,有的项与yh14无关,因此可以剔除这一部分,只留下与yh14有关的部分,记为{π|B(π)=z,π14=h}

p(z|y)yh14

= B(π)=zp(π|y)yh14

= B(π)=zt=1Tyπttyh14
=B(π)=z,π14=ht=1Tyπttyh14+B(π)=z,π14ht=1Tyπttyh14yh14

=B(π)=z,π14=ht=1Tyπttyh14

这里的q和r就是与yh14相关的两条路径。用q1:13q15:30分别表示qyh14之前和之后的部分,同样的,用r1:13r15:30分别表示ryh14之前和之后的部分.。可以发现,q1:13+h+r15:30r1:13+h+q15:30同样也是两条可行的路径。q1:13+h+r15:30r1:13+h+q15:30qr这四条路径的概率之和为:
yq11..yq1313.yh14.yq1515....yq3030q

+yq11..yq1313.yh14.yr1515....yr3030q1:14+r14:30

+yr11..yr1313.yh14.yq1515....yq3030r1:14+q14:30

+yr11..yr1313.yh14.yr1515....yr3030r

=(yq11....yq1313+yr11.....yr1313).yh14.(yq1515....yq1530+yr1515....yr3030)

可以发现,该值可以总结为:(前置项).yh14.(后置项)。由此,对于所有的经过yh14的路径,有:

B(π)=z,π14=ht=1Tyπtt=().yh14.(后置项)$

定义:
α(14)(h)=().yh14=B(π1:14)=[n,i,h]t=1tyπtt

该值可以理解为从初始到yh14这一段里,所有正向路径的概率之和。并且发现,α14(h)可以由α13(h)α13(i)递推得到,即:
α14(h)=(α13(h)+α13(i))yh14

该递推公式的含义是,只是在t=13时发音是“h”或“i”,在t=14时才有可能发音是“h”。那么在t=14时刻发音是“h”的所有正向路径概率α14(h)就等于在t=13时刻,发音为“h”的正向概率α13(h)加上发音为“i”的正向概率α13(i),再乘以当前音素被判断为“h”的概率yh14。由此可知,每个αt(s)都可以由αt1(s)αt1(s1)两个值得到。α的递推流程如下图所示:

这里写图片描述

即每个值都由上一个时刻的一个或者两个值得到,总计算量大约为2.T.。类似的,定义βt(s), 递推公式为:

β14(h)=(β15(h)+β15(a))yh14

因此有:

B(π)=z,π14=ht=1Tyπtt=().yh14.(后置项)$

=α14(h)yh14.yh14.β14(h)yh14

=α14(h)β14(h)yh14

然后:

p(z|y)yh14

= B(π)=z,π14=ht=1Tyπttyh14

= α14(h)yh14.yh14.β14(h)yh14yh14

=α14(h)β14(h)(yh14)2

得到此值后,就可以根据反向传播算法进行训练了。
可以看到,这里总的计算量非常小,计算αβ的计算量均大约为(2.T.),(加法乘法各一次),得到αβ之后,在计算对每个ykt的偏导值的计算量为(3.T.),因此总计算量大约为(7.T.),这是非常小的,便于计算。

目前,深度学习的算法已经大规模应用于腾讯云的语音识别产品中。腾讯云拥有业内最先进的语音识别技术,基于海量的语音数据,积累了数十万小时的标注语音数据,采用LSTM,CNN,LFMMI,CTC等多种建模技术,结合超大规模语料的语言模型,对标准普通话的识别效果超过了97%的准确率。腾讯云的语音技术,应用涵盖范围广泛,具备出色的语音识别、语音合成、关键词检索、静音检测、语速检测、情绪识别等能力。并且针对游戏,娱乐,政务等几十个垂直做特殊定制的语音识别方案,让语音识别的效果更精准,更高效,全面满足电话客服质检、语音听写、实时语音识别和直播字幕等多种场景的应用。

发布了5 篇原创文章 · 获赞 64 · 访问量 9万+
展开阅读全文

没有更多推荐了,返回首页

©️2019 CSDN 皮肤主题: 编程工作室 设计师: CSDN官方博客

分享到微信朋友圈

×

扫一扫,手机浏览