关键词:CTC算法,forward-backward算法
引言:
traning RNNs to label unsegmented sequences directly
训练RNNs直接标记未分割序列的新方法
1. 介绍:
未分割序列数据进行标记任务中,输入流是用离散标签串(如单词/字母)进行标记的
目前隐马尔可夫模型(HMMs)和条件随机场(CRFs)是序列标记的主要框架
1.RNNs:只能训练成一系列独立的标签分类,训练数据必须进行预分割,网络输出必须进行后处理,最后得到label序列
2.RNNs+HMMs:HMMs建模长序列结构,NN用于局部分类。HMM组件能够在训练过程中自动分割序列,并将网络分类转换为标签序列
3.CTC:RNNs for this purpose as connectionist temporal classification (CTC)
![](https://i-blog.csdnimg.cn/blog_migrate/c0734003864968a6a47ba1c359fd7bbb.jpeg)
2. Temporal Classfication
![](https://i-blog.csdnimg.cn/blog_migrate/95492169aa34459b224a0e73af8d28cf.jpeg)
2.1 标签错误率(LER)
ED:x变为z的所需的插入,替换和删除的最小次数(最短编辑距离)
![](https://i-blog.csdnimg.cn/blog_migrate/3fe297f091dfc31b5828c73c405c9f4a.png)
3. Connectionist Temporal Classification
RNN网络输出转换为标签序列上的条件概率分布,通过给定输入序列,选择最有可能的标签
3.1 从网络输出到标签
启发式:尾部添加额外添加一个空白概率来对齐
![](https://i-blog.csdnimg.cn/blog_migrate/99187f0ace4918dcb3d95e212697db52.jpeg)
对于输入序列,任何一个标签序列的总概率=sum(不同对齐方式求得的概率)
3.1.1某种对齐方式的计算
![](https://i-blog.csdnimg.cn/blog_migrate/acefd190c6d8a2a84504a65bf5f43718.png)
x:输入序列
T:length(x)
L': L∪{blank}
L'T: 长度为T的序列在L'上的分布
π:表示在该分布上的元素的路径
y(k,t):输入单元k在t时刻的概率
隐含假设:网络输出在不同时刻,是有条件的,独立的
要求:输出层不存在从自身/网络的feedback connections
3.1.2 sum(对齐方式)
![](https://i-blog.csdnimg.cn/blog_migrate/6c758d74ec21b2dc73d87a5cf27c85e7.png)
L(<=T):表示可能的标签序列,如图:abb表示L,长度为3 <= 输入序列5或者8
β:多对一的映射方式,先去除重复单词,再去除空格
l:表示所有可能的路径
![](https://i-blog.csdnimg.cn/blog_migrate/9c777ccf7aad2b3f1be4fdefa94522a6.png)
3.2 构建分类器
我们想要的分类器h(x)是,给定x的输入,使得输出是最有可能的标签
![](https://i-blog.csdnimg.cn/blog_migrate/b437758980b738a3900d3dc4614f2f01.png)
给出两种decoding方法
3.2.1 best path decoding
选择最有可能的路径,所对应最有可能的labelling
![](https://i-blog.csdnimg.cn/blog_migrate/227939b2c558b8f8764bcc068d7c16f5.png)
缺点:π*只是在每个时间步上的最活跃的输出的串联
3.2.2 prefix search decoding(采用)
形成预测的空白分隔的峰值,输出序列的开始和结尾添加一个blank
![](https://i-blog.csdnimg.cn/blog_migrate/8a687c1f9b34c2fdb614abe9b25822d9.jpeg)
缺点:扩展的前缀数量随着输入序列的长度增加呈指数增长
🤣分界线,以上是启发式思考,下面是CTC的设计
4. 训练CTC网络(正文设计)
梯度下降训练CTC网络的目标函数,需要一种算法来求解最大似然函数
4.1 forward-backward算法
关键思想:对应于标签上的路径和可以分解为对应于该标签的前缀的路径上的迭代和
规定:
-
- 在每对标签之间插入空格,在开始和结束时插入空格
-
- 不允许竖直方向白色转移到白色,这会吞掉一个符号
-
- 允许所有前缀以空白或者第一个符号开始,以空白或者最后一个符号结束
![](https://i-blog.csdnimg.cn/blog_migrate/db15b8aafaa83dbe1d43be99624d88ef.jpeg)
下面给出例子说明,如图,给出有四条,且在t=4时刻都经过A这个字符
![](https://i-blog.csdnimg.cn/blog_migrate/7ae1dad5e39137ad4501f2558bffde67.jpeg)
4.1.1 forward 计算
前向递推概率和:
![](https://i-blog.csdnimg.cn/blog_migrate/acc965a7dcb717223d82064f7701bfd5.png)
初始化:
![](https://i-blog.csdnimg.cn/blog_migrate/77f0cc85ebaa2e126259b231b8cbb661.png)
转移方程:
![](https://i-blog.csdnimg.cn/blog_migrate/b7d659ce1ca10ea61185977d6c68450e.png)
此转移方程,我们可以将下面(7)的αt(s)代入(6),同样得到一个式子
![](https://i-blog.csdnimg.cn/blog_migrate/2c6965c3190e01f311b02b1a7fea1be1.jpeg)
观察论文中的转移图,当我们当前字符是白色的时候,我们可以由上一秒是白色自转或者由黑色转移;当我们当前字符是黑色的时候,我们可以由上一秒当前黑色自转或者由白色转移或者上个黑色字符转移
4.1.2 backward 计算
由T时刻的状态来递推同理,不再赘述
4.2 Maximum Likelihood Training
对于总的路径概率该怎么求?首先给出论文中的计算公式,前面Σ表示定义所有经过β变化后是l的字符串π的集合,也就是上面图中给出的 π1,π2,π3,π4
![](https://i-blog.csdnimg.cn/blog_migrate/b8c0fdb1f222c08568adf7094b9e4a49.png)
我们以上述四条路径为例,由forward算法,我们可以计算得到由T=0转移到T=4时,四条路径分别的概率乘积,也可以通过backward算法,计算由T=6转移到T=4时,四条路径的概率乘积
![](https://i-blog.csdnimg.cn/blog_migrate/56b805cf35ef937e93ddf21750e6c2b7.jpeg)
然后分别都乘上y4的概率,也就是T=4取到A的概率,计算四条路的概率总和,对此可以将所有T=4之前的前向路径记为forward,T=4之后的后向路径记为backward,forward * (T=4) * backward也为相同的答案,如图
![](https://i-blog.csdnimg.cn/blog_migrate/2640852eb970399edd7f11d052b853c1.jpeg)
现在明白了前向概率和,后向概率和的含义,然后回到我们要看明白的式子,首先由概率公式P(A+B|X)=P(A|X)+P(B|X),将forward和backward的概率P拆分,然后乘上T=4时刻的概率,表示在T=4发生该字符这一前提下,发生forward的概率和backward的概率
![](https://i-blog.csdnimg.cn/blog_migrate/d33b0009520f075d260faae3715253a4.png)
![](https://i-blog.csdnimg.cn/blog_migrate/a6864f46dbe62b90cd56cab5803f6dd9.jpeg)
然后α和β将这两个相乘,就可以得到论文中给出的式子
![](https://i-blog.csdnimg.cn/blog_migrate/b5242a0a6716d0d3de7a71a86e13ad37.jpeg)
下面是求导计算梯度过程,以及涉及到的对softmax偏导过程
![](https://i-blog.csdnimg.cn/blog_migrate/00599582fc7bc1e4d504006ee0fb9898.png)
右边等价于p(l|x)
![](https://i-blog.csdnimg.cn/blog_migrate/1bcaa867e36ad6a7d6a32d92b15065cf.png)
然后对y(k,t)求偏导,分子是无关项
![](https://i-blog.csdnimg.cn/blog_migrate/069dabff721127bd3c9de7ed42c6242c.png)
然后引入len后,对所有路径概率求和
![](https://i-blog.csdnimg.cn/blog_migrate/e68e7f43cf36649424cc358e26effdf0.png)
![](https://i-blog.csdnimg.cn/blog_migrate/a929ccf77102c942fdc0319ea27755d1.png)
![](https://i-blog.csdnimg.cn/blog_migrate/e18af4d2b918f7ade1e0221e3432bc0c.png)
最后由对ut求偏导,y(k,t)是输出层通过softmax得到的,u(k,t)是未经过softmax的输出,对softmax的求导过程
![](https://i-blog.csdnimg.cn/blog_migrate/41d6c11acb98cf7414104380bc4e99bb.jpeg)
最后答案是这个
![](https://i-blog.csdnimg.cn/blog_migrate/51f7b030104fa864f01eed781667779c.png)
CTC的特征:
1.条件独立:每个时间片相互独立(忽略了各个时间片之间的语义信息)
2.单调对齐:输入x与输出y之间的单调对齐(不适用于机器翻译)
3.多对一映射:输入序列x的长度>标签数据y的长度