Labelling Unsegmented Sequence Data with Recurrent Neural Networks(笔记)

概述

背景

在实际的序列学习场景中经常会遇到从没有切分的,带有噪音的数据中对序列的label进行预测,例如语音识别中需要将声学信号转换成words或者是 sub-words.
文章提出了一种新的rnn训练方法,可以将没有切分的序列生成相应的标签。

传统方法的问题

传统方法中常用的HMM,CRF等有一些可以较好的解决这种序列标注问题,但是它们也存在相应的问题:
1. 通常需要大量的领域相关知识,例如定义相关的label,选择crf的输入特征等等。
2. 需要基于一定的相关性假设,例如HMM中观察序列之间是相互独立的。
3. 对HMM 来说训练是产生式的,即使序列标注问题是一个判别问题。

RNN的优势

  1. 不需要任何关于数据的先验知识,除了选择定义输入和输出的格式。
  2. 具有强大的特征表达能力,能够很好的对问题进行建模,并且可以表示判别式模型。
  3. 对于噪音问题处理的更加鲁棒。
  4. 可以利用long-range seququence 建模。

效果

效果优于hmm和hmm-rnn模型。

具体思路

将网络的输出表示为所有可能的label序列的概率分布,有了这个概率分布可以定义目标函数为直接最大化正确的label序列的概率。
因为目标函数可导,所以可以用标准的bp方法进行训练。

Temporal Classification

记号

S 表示从一个分布DX×Z提取的训练样本
输入空间 X=(Rm) 是所有的 m 维的实数向量。
目标空间 Z=L 是所有的Label(有限的)组成的序列空间。
我们称 L 中的元素为label sequences 或labellings。

任意的一个样本 sS,s=(x,z) ,
目标序列 z=(z1,z2,...,zU) ,
输入序列 x=(x1,x2,...,xT)
其中 U<=T

目标是用 S 来训练一个temporal classifier s.t. h:X>Z

Label Error Rate

度量错误

给定一个测试集 SDX×Z
定义 h 的标签错误率(LER = Label Error Rate)为S数据集上的标准化的 分类结果和目标之间的编辑距离。

LER(h,S)=1|S|(x,z)SED(h(x),z)|z|

其中 ED(p,q) 是sequence p,q 之间的编辑距离。(插入,替换和删除)

Connectionist Temporal Classification

介绍了如何表示RNN的输出可以用来做CTC,最直接的想法是将RNN的输出表示为一个给定的输入的关于Label sequences的条件概率分布

网络输出到标签序列

CTC网络有一个softmax输出层,
输出层有 |L|+1 个输出单元,
其中 |L| 指的是label的个数,
1代表空格或其他非label的输出。

具体形式

首先定义初步的映射关系

输入序列 X,|X|=T
RNN m 个输入,n个输出( n=|L|+1 )和权重向量 w as a continuous map :
Nw(Rm)T>(Rn)T
定义 y=Nw(x) 是神经网络从输出,并且 ytk 是第 k 个单元的在时间t时的激活值
即label k 在时间t概率,则有长度 T 的序列关于L=L{blank}概率为:

p(π|X)=t=1Tytπt,πLT

定义一个多对一的映射

映射形式如下:
β:(L)T>L<=T , L<=T 是可能的标签
具体步骤:
将所有的空格和重复的标签从路径中移除,例如
β(aab)=β(aaabb)=aa ,其中-代表空格

计算关于 lL<=T 的条件概率

p(l|x)=πβ1(l)p(π|x)

构建分类器

有了以上的计算方法,分类器的输出应该是对输入生成的标注可能性最大的一个序列。

h(x)=argmaxlLTp(l|x)

此过程可以借鉴传统的叫法decoding,但是目前还没有一个通用的,tractable的解码算法。
目前常用以下两种 近似的方法 来做解码:

第一种解码方法(Best Path Decoding)

思路:假设最可能的路径( π )往往和最可能的labeling相关:

h(x)β(π)

其中: π=argmaxπNtp(π|x)
此方法简单易于实现,而且找到的是在各个时间点的激活值最大的值,但是不能保证找到的是最有可能的label序列。

第二种解码方法(Prefix Search Decoding)

类似于前后向算法基础上进行,具体见第四章(下一章训练网络部分)
这种方法只要时间足够往往可以找到最优的结果,但是解码时间跟序列长度成指数增长。
通常使用启发式的解码方法。

启发式的思路如下:

首先根据输出中预测是blank的节点进行切分,然后分段进行prefix 查找。

缺陷

通常情况下启发式的方法工作的很好,并且能够找到最优的路径,但是在一些情况下会出错,例如在一个分割点的两端两者的预测label都相同,而且概率较小。

训练网络

CTC前后向算法

我们需要一个高效的方式来计算 p(l|x) ,但是参考公式 ??? 会发现这是一个难以计算的任务。
本文引入了动态规划的方法,类似于hmm中的前后向算法,如下:
一个序列 q ,长度为r,记为 q1:p qrp,r 作为它的最前和最后的 p 的标记。
对一个labeling序列 l,定义前向变量 αt(s)=πNT:β(π1:t)=l1:stt=1ytπt
(前s个label由前t个观察序列生成的概率)
对序列在处理一下对序列 l 前后及中间增加一个blank,则l>l,2|l|+1
(此时应该 s<|l|2(Tt)1
则有以下等式成立

α1(1)=y1bα1(2)=y1l1α1(s)=0,s>2

并且有递归形式如下:
\begin{equation}
\alpha_t(s) = 
\begin{cases}
(\alpha_{t-1}(s) + \alpha_{t - 1}(s - 1))y_{l_s ^ \prime} ^ t, & \text {$if \space l ^ \prime _ s = b \space or \space  l ^ \prime _ {s - 2} = l _ s ^ \prime$} \\\\
(\alpha_{t-1}(s) + \alpha_{t - 1}(s - 1) + \alpha _ {t - 1} (s - 2)) y_{l_s ^ \prime} ^ t, & \text {otherwise}
\end{cases}
\label{eq:recurrForward}
\end{equation}

其中 ytk 是第 k 个单元的在时间t时的激活值
即label k 在时间t概率,则有长度 T 的序列关于L=L{blank}概率

解释

状态序列 b,l1,b,l2,b,l3,...,b,lk,b
1. 当前状态为blank
则当前状态可以由 前一个状态是blank( αt1(s) )或者前一个状态是状态序列中的前一个状态 αt1(s1) 转移而来
2. 当前状态和两步前的状态相同
则当前状态可以由前一个状态是blank( αt1(s) )和前一个状态跟两步前相同的状态 αt1(s1) 转移而来
3. 其余的情况有三条转移途径
当前状态不为空,而且前两步的状态和当前状态不同
1. 两步前状态不为空
则当前状态可以由中间状态为两步前状态,空或当前状态三条路径转移而来。
2. 两步前状态为空
则当前状态可以由中间状态为空,中间状态为状态序列中两步前状态和中间状态为当前状态转移而来。
示意图如下:

从而有整条序列 l 的概率由l最后是空格和最后不是空格求和而来。

p(l|x)=αT(|l|)+αT(|l|1)

类似可以有后向变量 βt(s)

βt(s)=πNT:B(πt:T)=ls:|l|tTytπt

其中

βT(|l|)=yTbβT(|l|1)=yTl|l|βT(s)=0,s<|l|1

βt(s)=β¯t(s)ytls,(β¯t(s)+βt+1(s+2))ytls,if ls=b or ls+2=lsotherwise

并且有

β¯t=βt+1(s)+βt+1(s+1)

and βt(s)=0s>2t and s>|l|

上述的前后向算法会导致下溢,我们的处理方式是定义如下公式

Ct=sαt(s),α^t(s)=αt(s)Ct

替换( ??? ),( ??? )式中的 αt

类似定义后向的计算方式如下:

Dt=sβt(s),β^t(s)=βt(s)Dt

替换( ??? ),( ??? )式中的 βt

要计算maximum likelihood error 如下式:

ln(p(l|x))=t=1Tln(Ct)

参考文献

minimum edit distance
Temporal classification Extending the classification paradigm to multivariate time series
Supervised Sequence Labelling with Recurrent Neural Networks 第7章

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值