Transformers with convolutional context for ASR

Transformers with convolutional context for ASR

(1) 论文思路

将原来sinusoidal 的位置编码用卷积学到的输入表征所代替,相对于原来的绝对位置表征,这种相对位置的编码效果更有利于后面的transformer 去发现长距离的依赖关系(避免了浅层transformer层在位置信息方面的学习)。具体效果:在LIbrispeech 无LM模型条件下WER达到4.7%(clean)和12.9%(other).

(2) 模型结构

在这里插入图片描述
左边的结构为transformer 一个layer的组成:
右边的结构为加入context后整个transformer的组成: encoder端:K个2D 卷积+layernorm +relu 后再接一个2-D max pooling.
Decoder 端:每个transformer block 采用多个对encoder context 的多头注意力层,并对之前预测结果进行1d卷积,共N层。
在这里插入图片描述

(3) 实验结果

输入为10ms with 25ms window 计算的80D log mel-filterbank coefficients +3 个基本频率特征
2 个 2D 卷积block:每个block包含两层卷积 ,kernel size 3, max-pooling kernel 2. 第一个block feature map 64, 第二层128; decoder 端1d卷积有三层,无max pooling 层。

在这里插入图片描述
第一行为论文的卷积context 的配置,第二行实验采用将decoder端的卷积context换成绝对位置编码,效果明显变差,并且两者的拼接(第三行)也并有带来任何提升; 增加encoder layer层对提升效果至关重要,增加encoder decoder的relu层对模型效果也有提升,但是增加encoder与decoder 的multi head 数量对效果有一定负面影响。
在这里插入图片描述
在相同参数量的情况下,采用更宽的context size/ 更深的卷积层的效果是更好的。
在这里插入图片描述
增加encoder的层数可以让模型更关注声音内容,忽略一些噪音和环境声音,对模型的提升最明显。 decoder 层数的增加虽然提升有限,但还是有益处的。

在这里插入图片描述
通过与其他模型的结果对比可以发现,本文采用的模型在dev other 和 test other 两个数据集上相对于其他的no LM model分别有12% , 16%的提升,说明convolutional transformer 这种配置更能学好speech data、环境噪声等特征之间的长距离依赖,从而更好地分辨。 对于clean 的数据,还需要外部text建立的LM来进一步带来效果提升。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值