[Paper Notes] Sequence to Sequence Learning with Neural Networks

60 篇文章 1 订阅
2 篇文章 0 订阅
本文介绍了使用LSTM进行序列到序列学习的方法,包括RNN Encoder-Decoder模型的改进,如使用双LSTM、四层结构和反转输入序列。实验显示,这些改进提高了模型在WMT'14英法翻译任务中的性能,尤其是在处理长句子时。此外,通过 Beam Search 进行预测,并对基线模型的1000-best列表重新打分,进一步提升了翻译质量。
摘要由CSDN通过智能技术生成

Introduction

这篇文章有点类似于 RNN Encoder-Decoder
主要思想是:使用 LSTM 将源序列编码为一个固定维度的向量表示,然后使用另外一个 LSTM 从向量表示中解码出目标序列。

数据集: WMT’14 English to French
Result: BLEU Score
Baseline(CSLM) 33.30
提出的模型 34.81
rescore 1000-best lists of the baseline 36.5
best published result 37.0

The Model

RNN

输入序

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值