Sequence Modeling With CTC : Labelling Unsegmented Sequence Data with RNN

本文详细介绍了CTC(Connectionist Temporal Classification)在序列标注中的应用,特别是如何使用RNN进行未分割序列的训练。CTC通过最大似然估计来处理输入序列和目标序列长度不匹配的问题,通过编辑距离来衡量预测误差。文中还探讨了动态规划算法、前向后向算法和束搜索在CTC中的作用,以及如何通过这些方法计算损失函数和梯度,最终训练模型并找到最可能的输出序列。
摘要由CSDN通过智能技术生成

引言 \colorbox{aqua}{引言}

最近刚入坑语音识别,看了关于CTC序列对齐的论文。下面是自己对论文的提取和自己的理解,只怪自己太菜,有点力不从心。整片文章用到了离散型的最大似然估计。下面链接是浙大大佬写的一篇,很通俗易懂,希望和大家一起进步学习。
似然与极大似然估计

摘要 \colorbox{aqua}{摘要}

许多真实世界的序列学习任务需要从嘈杂的、未分割的输入数据中预测标签序列。例如,在语音识别中,一个声音信号被转录成单词或子单词单位。递归神经网络(RNNs)是一种功能强大的序列学习者,似乎很适合这类任务。但是,由于它们需要预先分割训练数据,并经过后处理将其输出转化为标签序列,因此目前其适用性有限。Alex Graves等人提出了一种训练神经网络标记未分割序列的新方法CTC (Connectionist Temporal Classification)以标记未分割的序列数据。

Temporal Classification \colorbox{aqua}{Temporal\qquad Classification} TemporalClassification

S S S为固定分布 D X × Z D_{X\times Z} DX×Z得到的一组训练示例(training examples)。输入空间 X = ( R m ) ∗ X = (\Reals^m) ^∗ X=(Rm)是所有m维实值向量序列的集合。目标空间 Z = L ∗ Z = L^∗ Z=L是最终标签序列集合 L L L上的所有(有限)字母序列的集合。通常我们将 L ∗ L^* L序列里面的元素或者字母(可以多个)作为标签序列,或者标签。 S S S中的每个例子由一对序列 ( x , z ) (x, z) (x,z)组成。目标序列 z = ( z 1 ,   z 2 , , , z U ) z= (z_{1},\,z_{2},,,z_{U}) z=(z1,z2,,,zU)最多等于输入序列 x = ( x 1 ,   x 2   , , , x T ) x= (x_{1},\,x_{2}\,,,,x_{T}) x=(x1,x2,,,xT),即, U ⩽ T U\leqslant T UT.由于输入序列和目标序列的长度一般不相同,因此没有一种先验的方法来对齐它们

目的是使用 S S S来训练一个时间分类器 h : X → Z h: X→Z h:XZ来分类之前不能预见的输入序列,以最小化一些任务特定的误差测量。

E r r o r R a t e \color{blue} \quad Error \quad Rate ErrorRate

在本文中,我们感兴趣的是以下误差测量:给定一个从 S S S分离出来的测试集 S ′ ⊂ D X × Z S'\subset D_{X\times Z} SDX×Z,定义个描述 t h e    l a b e l    e r r o r     ( L E R ) the\,\,label\,\,error\,\,\,(LER) thelabelerror(LER)的时间分类器 h h h作为其分类与 S ′ S' S上目标之间的归一化编辑距离,即
L E R ( h , S ′ )     =      1 Z    ∑ ( x , z ) ∈ S ′     E D ( h ( x ) ) ( 1 ) LER(h,S')\,\,\,=\,\,\,\,\frac 1 Z\>\> \sum_{\mathclap{(x,z)\in S' }}\>\>\>ED(h(x))\qquad\qquad(1) LER(h,S)=Z1(x,z)SED(h(x))(1)
其中 Z Z Z S ′ S' S中目标标签的总数, E D ( p , q ) ED(p, q) ED(p,q) p p p q q q两个序列之间的编辑距离,即p变为q需要插入、替换和删除的最小数目。
这是一种很自然的方法(比如语音或手写识别),其目的是将转录(transcription)错误的比率降到最低。

Connectionist Temporal Classification \colorbox{aqua}{Connectionist\qquad Temporal\qquad Classification} ConnectionistTemporalClassification

本节描述了用于CTC的递归神经网络的输出表示。关键的一步是将网络输出转换为标签序列上的条件概率分布。然后,通过为给定的输入序列选择最可能的标记,该网络可以被用作分类器。

F r o m N e t w o r k O u t p u t s t o L a b e l l i n g s \color{blue} From \quad Network \quad Outputs \quad to\quad Labellings FromNetworkOutputstoLabellings

一个CTC网络有一个softmax 输出层,该层神经元的个数比 L L L标签序列所含的标签数多一。这个额外神经元的激活是为了观察到“空白”或没有标签的概率。比如26个字母,因为还有一个无效字符 ϵ \epsilon ϵ,所以目标类别一共有27类。这些softmax 输出层的输出一起定义了将所有可能的标签序列与输入序列对齐的所有可能方式的概率。然后,任何一个标签序列的总概率都可以通过对其不同对齐的概率求和来找到。
更正式地说,对于长度为 T T T的输入序列 x x x,定义一个有 m m m个输入, n n n个输出,权值向量为 w w w的递归神经网络作为一个连续映射 N w : ( R m ) T ↦ ( R n ) T N_{w}:(\Reals^m)^T\mapsto(\Reals^n)^T Nw:(Rm)T(Rn)T.
y = N w ( x ) y = N_{w}(x) y=Nw(x)为网络输出序列,用 y t k y_{t}^k ytk表示输出单元 k k k t t t时刻的激活,则 y k t y_{k}^t ykt解释为 t t t时刻观察标签 k k k的概率,定义了集合 L ′ T L'^T LT上的分布, T T T为长度, L ′ = L ∪ { b l a n k } : L'=L\cup \{blank\}: L=L{blank}:
我们先搭建这样一个模型:
在这里插入图片描述

p ( π ∣ x )   =   ∏ t = 1 T y π t t   ,    ∀ π ∈ L ′ T . ( 2 ) p(\pi|x)\>=\>\prod_{t=1}^Ty_{\pi_{t}}^t\,,\>\>\forall\pi\in L'^T.\qquad\qquad(2) p(πx)=t=1Tyπtt,πLT.(2)
∙ \bullet\qquad t ∈ ( 1 , T ) t\in(1,T) t(1,T) T T T为输入序列 x x x的长度。
∙ \bullet\qquad 从上文 L ′ T L'^T LT的定义可知, π \pi π是一个 L ′ L' L序列,比如hee ϵ \epsilon ϵl ϵ \epsilon ϵllo
∙ \bullet\qquad π t : x \pi_{t}:x πt:x输入序列的第 t t t个位置(帧)所在 π \pi π序列映射的元素(这里有个比对关系 x ↦ L ′ x\mapsto L' xL)
∙ \bullet\qquad 如上文 y k t y_{k}^t ykt的解释。 y π t t : x y_{\pi_{t}}^t:x yπtt:x输入序列的第 t t t个位置(帧)所在 π \pi π序列映射的元素的概率分布
∙ \bullet\qquad 音频通过分帧进行特征提取,将得到的音谱图送入网络中训练,按照CTC的时序,一个帧对应一个输入位置、时间。即时间 T T T x x x序列的长度 T T T是一样的。

将通过操作 B B B可以编码为标签路径 l l l的所有路径的概率累加,我们最大化这个概率就能训练好模型,这里每条路径中的元素假设是独立的,所以通过累乘来得到。但随着帧长的加大,如果对所有的路径进行穷举,是一个NPC问题,这里通过前后向算法来计算(后面会具体提到)。
在这里插入图片描述
p ( l , x )     =       ∑ π ∈ B − 1 ( l )     p ( π ∣ x ) ( 1 ) p(l,x)\,\,\,=\,\,\,\>\> \sum_{\mathclap{\pi\in B^{-1}(l) }}\>\>\>p(\pi|x)\qquad\qquad(1) p(l,x)=πB1(l)p(πx)(1)
∙ \bullet\qquad l : l: l: hello
∙ \bullet\qquad B : L ∗ T ↦ L ≤ T B : L^{*T} \mapsto L^{\leq T} B:LTLT

C o n s t r u c t i n g t h e C l a s s i f i e r \color{blue} Constructing\quad the\quad Classifier ConstructingtheClassifier

根据上述公式,分类器的输出应该是输入序列最可能的标签:

h ( x )    =    arg max ⁡ l ∈ L ≤ T       p ( l   ∣   x ) h(x)\,\,=\,\,\argmax\limits_{l\in L^{\leq T}} \,\,\,\,\,p(l\,|\,x) h(x)=lLTargmaxp(lx)
如下图,就是找到其中概率最大的一条path:
在这里插入图片描述
这里使用的是前缀搜索算法,但这里的算法有个问题,(下文使用了beam search进行改进)
图片与算法描述:
每个节点要么以(’ e ')结束,要么扩展父节点的前缀。扩展节点上面的数字是所有以该前缀开头的标签的总概率。一个结束节点上面的数字是单个标记在其父节点结束的概率。在每次迭代中,探索最有可能的剩余前缀的扩展。搜索结束时,一个单一的标签(这里是“XY”)比任何剩余的前缀更可能。

CTC工作过程 \colorbox{aqua}{CTC工作过程} CTC

下图是CTC工作过程的直观感受图(对齐与折叠):
在这里插入图片描述

过程分析:
在这里插入图片描述
∏ \prod 是累乘(最大似然估计)

p ( Y ∣ X ) = ∑ A ∈ A X , Y ∏ t = 1 T p t ( a t   ∣   X ) p(Y|X)=\qquad \sum_{\mathclap{A\in A_{X},_{Y}}}\qquad\qquad\prod_{t=1}^T p_{t}(a_{t}\,|\,X) p(YX)=AAX,Yt=1Tpt(atX)
The CTC conditional probabilitymarginalizes over the set of valid alignments   computing the probability for a single alignment step-by-step.

首先是一张分好帧的声谱图,将每一帧的特征送入(fed into)RNN中训练。随后,每一帧的特征随着时间step by step进行识别,获得映射(比对)到{h,e,l,o, ϵ \epsilon ϵ}的概率分布。如上图所示,阴影部分越重代表映射(比对)到该alphabet 的概率越大。然后,随着时间,从前往后通过比对形成3个概率不同的序列L’,整合后形成最终的L。到这里,通过直观感受,这段音频说的就是hello。

经过CTC训练的模型通常使用递归神经网络(RNN)估算每个时间步的概率, p t ( a t   ∣   X ) p_{t}(a_{t}\,|\,X) pt(atX)RNN通常会很好地工作,因为它考虑了输入中的上下文

但,我们又想,那如果我们一下送入不止一小段音频。可能最后的L’集合包括
hello
h ϵ \epsilon ϵello
hello ϵ \epsilon ϵ
he ϵ \epsilon ϵll ϵ \epsilon ϵllo

可以看出这些都会被整合成hello.假设能够整合成hello序列的所有序列的个数为N.
而,这L的形成过程就是N个path,这N个path所代表的的概率相加就组成了最终的标签L。
注意:L’.length()>=L.length();

Loss Function \colorbox{aqua}{Loss\qquad Function} LossFunction

如果我们不小心,CTC损失的计算成本可能非常高。因为采用直接的方法会有大量的比对。

幸运的是,这个问题可以用动态规划算法来解决,类似于HMMs的向前向后算法(Rabiner, 1989)。关键
思想是,对应于标签的路径的总和可以分解为对应于标签前缀的路径的迭代总和。然后,可以通过向前和向后递归变量有效地计算迭代。
在这里插入图片描述
Summing over all alignments can be very expensive.  Dynamic programming merges alignments, so it’s much faster.
动态规划算法与递归算法相似,都是将大问题分解为小问题,然后逐步求解。规划算法是将大问题分解为独立的小问题,然后合并;而动态规划是从后往前推,逐步剥削。从上图可以看到,当前节点的值只与上一个时刻有关系。所以就可以用动态规划算法。
在这里插入图片描述

为了使描述算法会更容易,我们使用下面的序列

we can have an ϵ \epsilon ϵ before or after any token in Y Y Y
Z   =   [ ϵ ,   y 1 ,   ϵ ,   y 2 ,   . . .   ,   ϵ ,   y U ,   ϵ ] ★ Z\,=\,[\epsilon,\,y_{1},\,\epsilon,\,y_{2},\,...\,,\,\epsilon,\,y_{U},\,\epsilon] \qquad\qquad\qquad\bigstar Z=[ϵ,y1,ϵ,y2,...,ϵ,yU,ϵ]
which is Y Y Ywith an ϵ \epsilon ϵ at the beginning, end, and between every character.

我们设 α \alpha α是所给节点合并路径后的值(score)。(注意为了将两篇论文的内容联系起来,这里的数学符号: α s , t = = α t ( s ) \alpha_{s,t}==\alpha_t{(s)} αs,t==αt(s)) \quad 更确切地说, α s , t \alpha_{s,t} αs,t Z 1 : s Z_{1:s} Z1:s序列在经过 t t t个输入步骤(step)后的最终值(score)。

所以,现在,对于某个长度为 r r r的序列 q q q,用 q 1   :   p q_{1\,:\,p} q1:p q r − p   :   r q_{r−p\,:\,r} qrp:r 分别表示其第一个和最后一个p符号。然后,对于标记 I \Iota I,定义前向变量 α t ( s ) \alpha_t(s) αt(s) t t t 时刻 1 : s 1:s 1:s的总概率,即:
α t ( s ) = d e f ∑ π ∈ N T ; B ( π 1 : t ) = I 1 : s ∏ t ′ = 1 t y π t ′ t ′ ( 5 ) \alpha_t(s) \quad\stackrel{def}{=}\qquad \sum_{\mathclap{\pi\in N^{T};\\B(\pi_{1:t})=\Iota_{1:s}}}\quad\qquad\prod_{t'=1}^t y_{\pi_{t'}}^ {t'} \qquad \qquad\qquad(5) αt(s)=defπNT;B(π1:t)=I1:st=1tyπtt(5)

AS we’ll see,我们可以计算最终的CTC score, P ( Y ∣ X ) P(Y|X) P(YX),从 α s \alpha_{s} αs在the last time-step得到。
只有我们知道the previous time-step 我们就可以计算出最终的 α s , t \alpha_{s,t} αs,t。也就是说, α t ( s ) \alpha_t{(s)} αt(s)可以从 α t − 1 ( s ) \alpha_{t-1}{(s)} αt1(s) α t − 1 ( s − 1 ) \alpha_{t-1}{(s-1)} αt1(s1)递归地计算
ϵ \epsilon ϵ的位置, Z Z Z序列所导致的 α \alpha α的score可由两种case,如下:
Case 1:
在这里插入图片描述
在这种情况下,我们不能跳过 Z s − 1 Z_{s-1} Zs1.
The first reason is that:
对于 ⊂ 1 ⊃ \subset1\supset 1序列 Z Z Z, Z s − 1 Z_{s-1} Zs1可能是 Y = { y 1 , y 2 , . . . } Y=\{y_{1},y_{2},... \} Y={y1,y2,...}中的一个元素,它不是 ϵ \epsilon ϵ.对于训练来说,这是有用的信息,不能忽略。而且,前面我们已经定义,每个在 Z Z Z序列的 Y Y Y中的元素都会被 ϵ \epsilon ϵfollowed.我们可以通过 Z s = ϵ Z_{s}=\epsilon Zs=ϵ判断它.
The second reason is that:
对于 ⊂ 2 ⊃ \subset2\supset 2序列 Z , Z, Z,如果我们想识别相同的字符,就必须在它俩中间有 ϵ \epsilon ϵ.比如:我们要识别hello,必须是hel ϵ \epsilon ϵlo之类的,否则会被CTC整合成helo。我们就可以判断这种特殊情况同,当 Z s = Z s − 2 . Z_{s}=Z_{s-2}. Zs=Zs2.
我们可以得到下面公式:
α s , t   = ( α s − 1 , t − 1   +   α s , t − 1 ) . p t ( z s   ∣   X ) \alpha_{s,t}\,=\qquad(\alpha_{s-1,t-1}\,+\,\alpha_{s,t-1})\qquad.\qquad pt(z_{s}\,|\,X) αs,t=(αs1,t1+αs,t1).pt(zsX)

The CTC probability of the two valid subsequences after t − 1 t-1 t1 input steps. The probability of the current character at input step t t t.

Case 2:
在这里插入图片描述

如果 z s − 1 z_{s-1} zs1 ϵ \epsilon ϵ,并且它两边的 z s z_{s} zs, z s − 2 z_{s-2} zs2是不同的字符。将允许我们跳过前面的token in Z Z Z,即, z s − 1 z_{s-1} zs1连接 z s − 2 z_{s-2} zs2.
在这种情况下,我们可以得到下面公式:
α s , t   = ( α s − 2 , t − 1   +   α s − 1 , t − 1   +   α s , t − 1 ) . p t ( z s   ∣   X ) \alpha_{s,t}\,=\qquad(\alpha_{s-2,t-1}\,+\,\alpha_{s-1,t-1}\,+\,\alpha_{s,t-1})\qquad.\qquad pt(z_{s}\,|\,X) αs,t=(αs2,t1+αs1,t1+αs,t1).pt(zsX)
The CTC probability of the two valid subsequences after t − 1 t-1 t1 input steps. The probability of the current character at input step t t t.

结合Case 1,Case 2的讨论情况,呈现下图动态编程算法执行的计算示例。每个有效的路线在此图中都有一个路径。
在这里插入图片描述
由于当前节点的score的值只依赖于上一时刻的输入 X X X,图片上右上角(正向传播)、左下角(反向传播)的节点是invailed(下文将给出严格的公式定义)
在这里插入图片描述
从上图可以看出,红色箭头标注的路径概率最高, P ( Y ∣ X ) P(Y|X) P(YX),输入的L’序列为: { ϵ , a , ϵ , ϵ , b , ϵ } \{\epsilon,a,\epsilon,\epsilon,b,\epsilon\} {ϵ,a,ϵ,ϵ,b,ϵ},经过整合后的最终标签是 Y = { a , b } Y=\{a,b\} Y={a,b}
而,完全概率是两个最终节点所代表的的路径之和(下文将给出严格的公式定义)。

现在我们可以有效地计算损失函数,下一步是计算梯度并训练模型。CTC损失函数在每个时间步输出概率上是可区分的,因为它只是它们的和还有乘积。鉴于此,我们可以相对于(未归一化的)输出概率分析计算损失函数的梯度,然后像往常一样进行反向传播。

训练模型后,我们想用它找到给定输入的可能输出。更准确地说,我们需要解决:
Y ∗    =      arg max ⁡ Y       p ( Y   ∣   X ) Y^{*}\,\,=\,\,\,\,\argmax\limits_Y \,\,\,\,\,p(Y\,|\,X) Y=Yargmaxp(YX)
一种启发式方法是在每个时间步长获取最可能的输出。这使我们具有最高概率的对齐方式:
A ∗    =      arg max ⁡ A       ∏ t = 1 T    p t ( a t   ∣   X ) A^{*}\,\,=\,\,\,\,\argmax\limits_A \,\,\,\,\,\prod_{t=1}^T\,\, p_{t}(a_{t}\,|\,X) A=Aargmaxt=1Tpt(atX)
然后,我们可以折叠重复并删除 ϵ \epsilon ϵ token得到 Y Y Y.

对于许多应用程序,此启发式方法效果很好,尤其是当大多数概率质量分配给单个对齐方式时。但是,这种方法有时会错过容易找到的可能性更高的输出。问题是,它没有考虑到单个输出可以有很多对齐的事实。

这是一个例子。假设对齐方式[a,a, ϵ \epsilon ϵ]和[a,a,a]的概率分别低于[b,b,b]。但是它们的概率之和实际上大于[b,b,b]的概率之和。天真的启发式会错误地提出Y =Y =[b]作为最可能的假设。它应该选择 Y = Y = [ a ] Y =Y =[a] Y=Y=[a]。为了解决这个问题,算法需要考虑以下事实:[a,a,a]和[a,a, ϵ \epsilon ϵ]折叠到相同的输出

beam  search \colorbox{aqua}{beam \qquad search} beam search

我们可以使用修改后的modified beam search来解决上述问题。
先来说一下Beam search算法,该算法有个参数叫做宽度,假设宽度设为3,在RNN的输出中,该算法每个时间t输出时,不同于贪婪算法只找最高的,而是找最高的三个概率作为下一次的输入,依次迭代,如下图所示,每次t时间都是基于t-1输出的最高三个查找当前概率最高的三个。(这里也可以看出,当宽度设置为1时就是贪婪算法)
Beam Search(集束搜索/束搜索
Seq2Seq中的beam search算法

给定有限的计算量,修改后的modified beam search不一定会找到最可能的是的 Y Y Y。 至少,它确实具有很好的属性,我们可以在更多的计算(a larger beam-size)之间进行权衡,以获得渐近更好的解决方案。

常规modified beam search在每个输入步骤都会计算一组新的假设。通过使用所有可能的输出字符扩展每个假设并仅保留最前面的候选,从而从上一组生成新的假设.
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
上图是 l = { a } l=\{a\} l={a} l = { a , a } l=\{a,a\} l={a,a}的两个示例。( L L L是最终进过CTC整合的标签序列 l l l的集合)
因为 a a a的生成路劲较多,我下面仅仅以 L = { a , a } L=\{a,a\} L={a,a}做下分析:
T=1时刻, λ \lambda λ(为空)经过扩展生成了最有可能的3个扩展值( ϵ \epsilon ϵ,a,b)。如果为a,那么T=1时刻生成了 l ′ = { a } l'=\{a\} l={a}的序列,经过整合生成了 l = { a } l=\{a\} l={a}的标签序列。
T=2时刻,T=1生成的标签序列 l = { a } l=\{a\} l={a}经过扩展生成了最有可能的3个扩展值( ϵ \epsilon ϵ,a,b)。如果为 ϵ \epsilon ϵ,那么T=2时刻生成了 L ′ = { a , ϵ } L'=\{a,\epsilon\} L={aϵ}的序列,最后经过整合生成了L={a}的标签序列。
T=3时刻,T=2生成的标签序列 l = { a } l=\{a\} l={a}经过扩展生成了最有可能的3个扩展值( ϵ \epsilon ϵ,a,b)。如果为a,那么T=3时刻生成了 l ′ = { a , l'=\{a, l={a\epsilon , a } ,a\} a}的序列,经过整合生成了 l = { a , a } l=\{a,a\} l={aa}的标签序列。
T=4时刻,没有扩展,最终标签序列为上一个时刻T=3时生成的标签序列 l = { a , a } l=\{a,a\} l={aa}

The CTC Forward-Backward Algorithm \colorbox{aqua}{The\qquad CTC\qquad Forward-Backward\qquad Algorithm} TheCTCForward-BackwardAlgorithm

根据上面 ★ \bigstar 公式的定义,这里令 I ′ 等 于 Z \Iota' 等于Z IZ的具体的实例,使 I ′ \Iota' I具备上面的定义。
结合上文分析的两种Case,我们允许所有前缀以空白 ( b ) (b) (b)   I ( I 1 ) \ \Iota (\Iota_1)  I(I1)中的第一个符号开始。
这给了我们下面的初始化规则:
α 1 ( 1 ) = y b 1 \alpha_1(1)=y_b^1 α1(1)=yb1
α 1 ( 2 ) = y I 1 1 \alpha_1(2)=y_{\Iota_1}^1 α1(2)=yI11
α 1 ( s ) = 0 ,     ∀ s > 2 \alpha_1(s)=0,\,\,\,\forall s>2 α1(s)=0,s>2
下面我们给出 α t ( s ) \alpha_t{(s)} αt(s)更准确地 F o r w a r d    A l g o r i t h m Forward \,\,Algorithm ForwardAlgorithm:
α t ( s ) = { α − t ( s ) y I s ′ t if       I s ′ = b     o r     I s − 2 ′ = I s ′ ( α − t ( s ) + α t − 1 ( s − 2 ) ) y I s ′ t otherwise  ( 6 ) \alpha_t(s) = \begin{cases} \overset{-}{\alpha}_t(s)y_{\Iota'_s}^t &\text{if }\,\,\,\, {\Iota'_s}=b \,\,\,or\,\,\,{\Iota'_{s-2}}={\Iota'_s} \\ ( \overset{-}{\alpha}_t(s)+\alpha_{t-1}(s-2))y_{\Iota'_s}^t &\text{otherwise } \end{cases} \qquad\qquad (6) αt(s)={αt(s)yIst(αt(s)+αt1(s2))yIstif Is=borIs2=Isotherwise (6)
where
I s ′ 中 的 s 代 表 下 标 , 表 示 I ′ 序 列 的 第 s 个 字 母 {\Iota'_s}中的s代表下标,表示{\Iota'}序列的第s个字母 IssIs
α − t ( s ) = d e f α t − 1 ( s ) + α t − 1 ( s − 1 ) ( 7 ) \overset{-}{\alpha}_t(s)\stackrel{def}{=} \alpha_{t-1}(s)+\alpha_{t-1}(s-1) \qquad\qquad (7) αt(s)=defαt1(s)+αt1(s1)(7)
在这里插入图片描述
图片描述:
该图说明用于标记“CAT”的前向后向算法。黑色圆圈代表标签,白色圆圈代表空白。箭头表示允许转换。前向变量按箭头的方向更新,后向变量按箭头的反方向更新。
请注意, α t ( s ) = 0      ∀ s < ∣ I ′ ∣ − 2 ( T − t ) − 1 , \alpha_t (s) = 0 \,\,\,\, ∀s < | \Iota'| - 2(T - t) - 1, αt(s)=0s<I2(Tt)1因为这些变量对应的状态没有足够的时间步长来完成序列,(上图右上角的未连接的圆圈)。
Also α t ( s ) = 0     ∀ s < 1 \alpha _t(s) = 0\,\,\,∀s < 1 αt(s)=0s<1.

I \Iota I 的概率等于 I ′ \Iota' I(在时间上 T T T有和没有最后的空白的·)的所有概率之和。

p ( I ∣ x ) = α T ( ∣ I ′ ∣ ) + α T ( ∣ I ′ ∣ − 1 ) ( 8 ) p(\Iota|x)=\alpha _T(|\Iota'|)+\alpha _T(|\Iota'|-1)\qquad\qquad(8) p(Ix)=αT(I)+αT(I1)(8)
同理,反向变量 β t ( s ) \beta_t(s) βt(s),定义为在 t t t 时刻 I s : ∣ I ∣ \Iota_{s:|\Iota|} Is:I 的总概率。
β t ( s ) = d e f ∑ π ∈ N T ; B ( π : T ) = I s : ∣ I ∣ ∏ t ′ = t T y π t ′ t ′ ( 9 ) \beta_t(s) \quad\stackrel{def}{=}\qquad\quad \sum_{ \mathclap{\pi\in N^{T};\newline B(\pi:T)=\Iota_{s:|\Iota|}}}\qquad\qquad\prod_{t'=t}^T y_{\pi_{t'}}^ {t'} \qquad \qquad\qquad(9) βt(s)=defπNT;B(π:T)=Is:It=tTyπtt(9)
β T ( ∣ I ′ ∣ ) = y b T \beta_T(|\Iota'|)=y_b^T βT(I)=ybT
β T ( ∣ I ′ − 1 ∣ ) = y I ∣ I ∣ T \beta_T(|\Iota'-1|)=y_{\Iota_{|\Iota|}}^T βT(I1)=yIIT
β T ( s ) = 0 ,     ∀ s < ∣ I ′ ∣ − 1 \beta_T(s)=0,\,\,\,\forall s<|\Iota'|-1 βT(s)=0,s<I1
下面我们给出 α t ( s ) \alpha_t{(s)} αt(s)更准确地 F o r w a r d    A l g o r i t h m Forward \,\,Algorithm ForwardAlgorithm:
β t ( s ) = { β − t ( s ) y I s ′ t if       I s ′ = b     o r     I s + 2 ′ = I s ′ ( β − t ( s ) + β t + 1 ( s + 2 ) ) y I s ′ t otherwise  ( 6 ) \beta_t(s) = \begin{cases} \overset{-}{\beta}_t(s)y_{\Iota'_s}^t &\text{if }\,\,\,\, {\Iota'_s}=b \,\,\,or\,\,\,{\Iota'_{s+2}}={\Iota'_s} \\ ( \overset{-}{\beta}_t(s)+\beta_{t+1}(s+2))y_{\Iota'_s}^t &\text{otherwise } \end{cases} \qquad\qquad (6) βt(s)=βt(s)yIst(βt(s)+βt+1(s+2))yIstif Is=borIs+2=Isotherwise (6)
where
I s ′ 中 的 s 代 表 下 标 , 表 示 I ′ 序 列 的 第 s 个 字 母 {\Iota'_s}中的s代表下标,表示{\Iota'}序列的第s个字母 IssIs
β − t ( s ) = d e f β t + 1 ( s ) + β t + 1 ( s + 1 ) ( 7 ) \overset{-}{\beta}_t(s)\stackrel{def}{=} \beta_{t+1}(s)+\beta_{t+1}(s+1) \qquad\qquad (7) βt(s)=defβt+1(s)+βt+1(s+1)(7)

注意: β t ( s ) = 0    ∀ s > 2 t \beta_{t}(s)=0\,\,∀s > 2t βt(s)=0s>2t (上图中,左下角未连接的部分) 和 ∀ s > ∣ I ′ ∣ ∀s > |\Iota'| s>I

在实践中,上述递归将很快导致任何数字计算机上的低流.
避免这种情况的一种方法是重新调整前后变量。如果我们定义:
C t = d e f ∑ s α t ( s ) , α ^ t ( s ) = d e f α t ( s ) C t ♠ C_t\overset{def}{=}\sum_{\mathclap{s}}\alpha_t(s), \qquad \hat{\alpha} _t(s)\overset{def}{=} \frac {\alpha_t(s)} {C_t}\qquad\qquad\spades Ct=defsαt(s),α^t(s)=defCtαt(s)
D t = d e f ∑ s β t ( s ) , β ^ t ( s ) = d e f β t ( s ) D t ♠ D_t\overset{def}{=}\sum_{\mathclap{s}}\beta_t(s), \qquad \hat{\beta} _t(s)\overset{def}{=} \frac {\beta_t(s)} {D_t}\qquad\qquad\spades Dt=defsβt(s),β^t(s)=defDtβt(s)

为了评估最大似然误差,我们需要目标标记概率的自然对数。
有了重新标定的变量,它们的形式就特别简单了.
l n ( p ( I ∣ x ) ) = d e f ∑ t = 1 T l n ( C t ) ln(p(\Iota|x))\overset{def}{=}\sum_{\mathclap{t=1}}^Tln(C_t) ln(p(Ix))=deft=1Tln(Ct)

 Maximum Likelihood Training \colorbox{aqua}{ Maximum\qquad Likelihood\qquad Training}  MaximumLikelihoodTraining

最大似然训练的目的是同时最大化训练集中所有正确分类的对数概率。在我们的例子中,这意味着最小化以下目标函数.
在这里插入图片描述
通过极大似然估计,可以直观的理解, S S S 是我们观测到的值,找到 N w N_{w} Nw这个最优的网络参数,使我们的目标函数最小化。
为了用梯度下降训练网络,我们需要对(12)网络输出进行微分。由于训练例子是独立的,我们可以认为它们是独立的。
在这里插入图片描述
我们现在展示如何使用前面的前先后向算法来计算 (13)。
关键的一点是,对于标记 I \Iota I,在给定的 s s s t t t 上的前向变量和后向变量的乘积就是 I \Iota I对应的所有路径在t时刻通过符号s的概率。更精确地说,从(5)和(9)我们有:
在这里插入图片描述
从(2)所给的,从中重新排列和代入:
在这里插入图片描述
从(3)我们可以看出这只是 p ( I ∣ x ) p(\Iota|x) p(Ix)总概率的一部分,由于这些路径经过 I s ′ \Iota'_s Is
对于任意的 t t t,我们可以对所有 s s s 求和得到:
在这里插入图片描述
y t k y_t^k ytk 求导, 我们只需要考虑那些在 t t t 时刻经过标记 k k k 的路径即可。注意到同一个标签(或空白)可能会重复多次,我们将标签 k k k 出现的位置集中定义为 l a b ( I , k ) = { s : I s ′ = k } lab(\Iota, k) = \{s: \Iota_s' = k\} lab(I,k)={s:Is=k},可为空。从(14)求导得到:
在这里插入图片描述
观察到:
在这里插入图片描述
I = z \Iota = z I=z,将(8)和(15)代入(13),对目标函数求导
最后,为了通过softmax层反向传播梯度,我们需要目标函数对非标准化输出 u k t u_k^t ukt的导数
如果使用 ♠ \spades 的重新缩放,我们有:
在这里插入图片描述
反应式(16)是网络在训练过程中接收到的‘错误信号’(下图)。
在这里插入图片描述
图片描述:
训练期间CTC误差信号的演变。左列显示了同一序列在不同训练阶段的输出激活(虚线为“空白”单元);右边的列显示了相应的错误信号。

参考于:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值