Harvard NLP The Annotated Transformer 学习

本文介绍了如何复现Google的Transformer论文,该模型在机器翻译和其他NLP任务中表现出色。Harvard NLP的作者提供了逐行注释的400行PyTorch代码,可在4个GPU上高效运行。代码基于OpenNMT包,并提供了在Github上的资源链接,适合研究人员和开发者学习。
摘要由CSDN通过智能技术生成

Harvard NLP The Annotated Transformer  复现Google公司的Transformer论文

“Attention is All You Need” 的Transformer 在过去的一年里一直在很多人的脑海中出现。Transformer在机器翻译质量上有重大改进,它还为许多其他NLP任务提供了一种新的体系结构。论文本身写得很清楚,但传统的看法是论文很难准确的去实现。在这篇文章中,Harvard NLP的原作者在2018年初以逐行实现的形式呈现了论文的“注释”版本,总共有400行代码,可以在4个GPU上每秒处理27000个标识。您首先需要安装PyTorch,notebook可以在Github或谷歌Colab(免费提供GPU)上使用。注意,这仅仅是研究人员和感兴趣的开发人员的起点。这里的代码主要基于Harvard NLP的OpenNMT包。对于模型的其他完整服务实现,请查看tensor2tensor(tensorflow)和Socketeye(mxnet)。 
原作者:Alexander Rush (@harvardnlp or srush@seas.harvard.edu), with help from Vincent Nguyen and Guilla

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

段智华

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值