主流端到端模型:
Transducer S2S
Attention mechanism 无 有
搭建组件 RNN或者Transformer RNN或者Transformer
流式 自然 需要把全局注意力转为局部注意力
应用场景 在线 离线
两大点,Transformer Transducer, Conformer Transducer
INTERSPEECH 2020 口音英语语音识别比赛:
- 许多类型的数据增强是很有帮助的(速度变化,音频拼接,加噪音,加混响)
- 基于注意力的encoder和CTC组合模型是主要的策略(CTC+LAS,CTC+Transformer,CTC+Conformer)
- 语言模型(RNNLM,Transformer)
- Wav2vec是一个很好的无监督学习框架
- 特征用法(Fbank,X-vector,wav2vec)