seq2seq:
- (编码器)语音数据->进行编码为特征(高维度)
- (解码器)数字特征->文字对应的特征
- 需要编码全部完成,整个向量进行翻译
RNN:
- 有缺点,用1D的卷积更好
- 缺点:① 不能并行,效率低;②只能考虑前文,应当与前后文,尤其是较远的上下文有关;
attention(注意力机制):输入数据中的重点(权重分配)
加入attention的Seq2Seq
- L(编码器)A(权重)S(解码器)
- 内积表明两者关系相关程度,内积越大,越相关,再做个归一化
图来自 网易云课堂-深度学习-语音识别实战(Python)-1-5