Neural Machine Translation By Jointly Learning To Align and Translate
二作与三作 Universite de Montreal 鼎鼎有名的蒙特利尔大学,最后一位 Yoshua Bengio.
该文章的引用量: 1478
github 传送门 : https://github.com/lisa-groundhog/GroundHog
这篇文章在神经网络 采用编码-解码RNN 做端到端的机器翻译的基础上,使得模型可以在预测下一个词的时候,自动地选择原句子相关的部分作为解码的输入,这也是后来被提为attention机制的内容。该模型的性能在英法语数据的评测上超过了当前使用基于短语的机器翻译系统。
饮水思源,RNN encode-decode的模型架构是由文献[1]
[1] Neural Machine Translation By Jointly Learning To Align and Translate
二作与三作 Universite de Montreal 鼎鼎有名的蒙特利尔大学,最后一位 Yoshua Bengio.
该文章的引用量: 1478
这篇文章在神经网络 采用编码-解码RNN 做端到端的机器翻译的基础上,使得模型可以在预测下一个词的时候,自动地选择原句子相关的部分作为解码的输入,这也是后来被提为attention机制的内容。该模型的性能在英法语数据的评测上超过了当前使用基于短语的机器翻译系统。
饮水思源,RNN encode-decode的模型架构是由文献[1][2][3],这三篇文章也都是由机器翻译方面的学者提出来的。编码解码

本文介绍了在神经网络编码-解码RNN基础上的机器翻译模型,通过加入注意力机制,允许模型在预测目标词时选择源语言的相关部分作为输入。此模型在英法语翻译任务上超越了基于短语的翻译系统,是注意力机制的早期应用。
最低0.47元/天 解锁文章
1275

被折叠的 条评论
为什么被折叠?



