2019-utterance-level end-to-end language identification using attention-based cnn-blstm--icassp 2019

0 篇文章 0 订阅

Weicheng Cai1,2,Danwei Cai1, Shen Huang3and Ming Li1∗
1Data Science Research Center, Duke Kunshan University, Kunshan, China
2School of Electronics and Information Technology, Sun Yat-sen University, Guangzhou, China
3Tencent Research, Beijing, China
ml442@duke.edu ICASSP 2019

本文提出了一种端到端的语言识别框架,即基于注意的卷积神经网络双向长短期记忆(CNN-BLSTM)。该模型是在话语层次上进行的,这意味着可以从神经网络的输出中直接得到话语层次的决策。为了处理具有完全任意性和潜在长持续时间的语音,我们将CNN-BLSTM模型与一个自关注的聚合层结合在一起。前端CNN-BLSTM模块作为可变长度输入的局部模式抽取器,并在其上建立如下的自关注池层,得到固定维的话语水平表示。我们在NIST LRE07闭集任务上进行了实验,结果表明,所提出的基于注意的CNN-BLSTM模型在所有3秒、10秒、30秒持续时间的任务中都能达到与其他状态下的即时话语级神经网络方法相当的误差降低。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值