神经网络机器翻译(2): Attention Mechanism--转自CSDN

这篇文章和上一篇文章正是我所需要的内容,找到的时候非常高兴,特别感谢作者Clear-。


端到端的神经网络机器翻译(End-to-End Neural Machine Translation)是近几年兴起的一种全新的机器翻译方法。前篇NMT介绍的基本RNN Encoder-Decoder结构,RNNenc将源语言句子压缩成一个固定维度的向量是造成性能瓶颈的主要原因。为此,Bengio研究组提出基于注意力(Attention)的NMT,能较好的缓解这一问题并且能更好地处理长距离依赖。本文将介绍这项工作,以及后来Luong等人提出的引入Attention的两种不同的方式等。

转载请注明出处:http://blog.csdn.net/u011414416/article/details/51057789

本文详细介绍的工作有: 
Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. 2015. Neural machine translation by jointly learning to align and translate. In ICLR.

Thang Luong, Hieu Pham, and Christopher D. Manning. 2015a. Effective approaches to attention-based neural machine translation. In Proceedings of the 2015 Conference on EMNLP.

1
2
3
4
5
6
7
8
9
10
11
12
13
14
ref1
ref2
ref3


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值