Sequence to Sequence Learning with Neural Networks论文解读

基本信息

作者I Sutskeverdoi
发表时间2014期刊NIPS
网址https://arxiv.org/pdf/1409.3215v3

研究背景

1. What’s known 既往研究已证实
深度神经网络(DNNs)是极其强大的机器学习模型,在诸如语音识别和视觉对象识别等难题上表现出卓越的性能。

2. What’s new 创新点
加入了LSTM,创造了一个encoder-decoder结构。
端到端的序列到序列学习框架。

3. What’s are the implications 意义
传统的统计机器翻译(SMT)方法倾向于逐字翻译,且难以处理长句子的依赖关系。
提高了翻译效率和速度,翻译质量超过了传统的基于短语的统计机器翻译系统。

研究方法

1. encoder-decoder结构
使用两个LSTM网络,一个放到encoder里将输入序列映射为固定维度的向量表示,另一个放decoder里从该向量中解码出目标序列。(使用了具有4层的深度LSTM,每层有1000个单元和1000维的词嵌入,输入词汇量为160,000,输出词汇量为80,000)实现端到端的序列学习。
在这里插入图片描述
解码和重排:
在这里插入图片描述
在这里插入图片描述
LSTM里的遗忘门可以减少数据量,提高速度。

2. 倒输入序列
输入序列中的单词顺序颠倒,提高LSTM的性能。

结果与讨论

  1. 比传统的翻译效果要好,解码翻译的测试BLEU分数提高了。
  2. 翻译精度和长度大大提高。

重要图

文献中重要的图记录下来
在这里插入图片描述
在这里插入图片描述

  • 5
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值