【论文阅读】Addressing the RareWord Problem in NeuralMachine Translation

论文作者:

Minh Tang Luon (Stanford University)
Iiya Sutskever (Google)
Quoc V.Le (Google)
Orial Vinyals (Google)
Wojciech Zaremba (New York Univerity)
这篇论文一看就感觉是一个很好的研究工作,对一个很具体又很重要的问题展开。

摘要

文章的方法是在经过对齐算法处理的数据上进行训练NMT系统,然后再经过post-processing来翻译OOV,模型在WMT’14 English to French的任务提升了2.8 BLUE值,以37.5 BLUE值得分在WMT’14 contest task达到了最优的结果

与Standard phrase-based systems 的比较

pros:
1、模型通用:任何 sequence-to-sequence都可以进行建模处理
2、泛化性能强:在训练语料中没有出现的句子也可以提供翻译
3、不需要额外的短语表与语言模型
4、NMT 系统易于实现
cons:
处理不好OOV情况,如下图对比了phrase-base与NN的翻译结果,phrase-base的方法有显式的对齐处理算法,所以具有处理OOV词语的能力。
这里写图片描述

这里写图片描述
similar to Graves (2013) and Graves et al. (2014). TODO

与本文有相似的解决问题的文献,比较感兴趣其中对于softmax的近似 TODO 加入阅读计划
S´ebastien Jean, Kyunghyun Cho, Roland Memisevic, and Yoshua Bengio. 2015. On using very large tar- get vocabulary for neural machine translation. In ACL

对齐数据

本文处理OOV的方法是在训练语料上学对齐规则,对齐模型在phrase-based 模型中也是经常使用的一种。
运用的模型:Berkeley aligner [2] TODO 应该很值得一读
对齐模型也为post-process的翻译过程服务。
文章中尝试了三种对OOV对齐的标注:
这里写图片描述
这里写图片描述

注意到unkpos1 是与源端的非OOV对齐的,所以在第二种与第三种采用位移的方法是可以表示出来的,第三种方法解决了第二种需要将target端长度增倍的弊端(训练起来复杂,而且还会引入额外的噪声?)

感受一下训练时间,参数大的情况下,模型复杂优化起来也复杂:Training takes about 10-14 days on an 8-GPU machine

ensemble model 深度学习模型集成|||==》真是不怕麻烦|||

结果

这里写图片描述

参考文献

非常经典的工作,有时间一定要跑一下这个代码
[1]D. Bahdanau, K. Cho, and Y. Bengio. 2015. Neural machine translation by jointly learning to align and translate. In ICLR
[2]P. Liang, B. Taskar, and D. Klein. 2006. Alignment by agreement. In NAACL.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值