目录
Neural machine translation(NMT) 神经机器学习
Gated recurrent units(GRU) 门控递归单元
Long-short-term-memories(LSTMs) 长短期记忆模型
场景:machine translation 机器翻译
传统方法:基于统计的机器翻译
分为翻译模型和语言模型两部分,前者完成单词转换(给出可能的单词选择),后者完成语序选择(选择单词并排列成语句)
Neural machine translation(NMT) 神经机器学习
基于RNN的编码器&解码器结构
编码器的最后层隐状态(向量)需要捕获整个句子,随后的每层解码器都只依赖上一层的结果向量
使用交叉熵损失函数
改进思路:编码解码使用不同权值矩阵、更深层次、双向编码、逆向输入单词序列
改进思路:在解码器中,每一层的计算不仅依赖上一层,还依赖编码器的结果向量和上一层输出的单词