Weicheng Cai1,2,Danwei Cai1, Shen Huang3and Ming Li1∗
1Data Science Research Center, Duke Kunshan University, Kunshan, China
2School of Electronics and Information Technology, Sun Yat-sen University, Guangzhou, China
3Tencent Research, Beijing, China
ml442@duke.edu ICASSP 2019
本文提出了一种端到端的语言识别框架,即基于注意的卷积神经网络双向长短期记忆(CNN-BLSTM)。该模型是在话语层次上进行的,这意味着可以从神经网络的输出中直接得到话语层次的决策。为了处理具有完全任意性和潜在长持续时间的语音,我们将CNN-BLSTM模型与一个自关注的聚合层结合在一起。前端CNN-BLSTM模块作为可变长度输入的局部模式抽取器,并在其上建立如下的自关注池层,得到固定维的话语水平表示。我们在NIST LRE07闭集任务上进行了实验,结果表明,所提出的基于注意的CNN-BLSTM模型在所有3秒、10秒、30秒持续时间的任务中都能达到与其他状态下的即时话语级神经网络方法相当的误差降低。