机器翻译汇总

斯坦福大学的NLP 机器翻译的项目 https://nlp.stanford.edu/projects/nmt/

tf中的NMT项目:https://github.com/tensorflow/nmt

最新进展 Facebook AI Research论文《Convolutional Sequence to Sequence Learning》,该文章所提出的模型(简称ConvS2S)不仅仅在翻译任务上效果显著,而且所需训练时间也很短。 https://arxiv.org/abs/1705.03122

实现:

pytorch版本:https://github.com/facebookresearch/fairseq

Google团队论文《Attention is All You Need》,将机器翻译任务水平提高了2 BLEU。翻译效果上超越了ConvS2S,而且,其模型(Transformer)所需的训练时间也比ConvS2S要更短。 https://arxiv.org/pdf/1706.03762

实现: tf版本:https://github.com/DongjunLee/transformer-tensorflow

对两篇论文的理解: https://zhuanlan.zhihu.com/p/27464080

2017年神经机器翻译(NMT)的一些重要资源汇总: https://www.zhihu.com/question/65340310/answer/229955388

 

---------------------

作者:kula147

来源:CSDN

原文:https://blog.csdn.net/kula147/article/details/79236585

版权声明:本文为博主原创文章,转载请附上博文链接!

转载于:https://www.cnblogs.com/DicksonJYL/p/9914741.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值