NMT十篇必读论文(一)attention is all you need

清华大学NLP整理的神经机器翻译reading list中提到了十篇必读论文

https://github.com/THUNLP-MT/MT-Reading-List

 

本文抛弃了惯用的以CNN、RNN作为位置编码的方法,单纯依靠注意力机制以及简单的三角函数进行了位置编码,起到了不错的效果。对应模型为Tensor2Tensor框架下的Transformer模型。

GitHub地址:  https://github.com/tensorflow/tensor2tensor

 

解释的比较好的博客:

https://blog.csdn.net/c9Yv2cf9I06K2A9E/article/details/79023069

https://ask.hellobi.com/blog/wenwen/18695

https://blog.csdn.net/qq_41058526/article/details/80783925

https://www.jianshu.com/p/3f2d4bc126e6

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值