《Attention is All You Need》论文理解Transformer

这篇博客详细解析了谷歌Transformer模型,该模型在机器翻译任务中达到SOTA效果。主要内容包括输入输出处理、模型结构(自注意力层、前馈神经网络)、解码器的Mask机制、损失函数(采用KL div loss实现标签平滑)以及优化器(使用Adam)。Transformer的优势在于并行计算能力、较低的单层计算复杂度和有效处理长距离依赖问题。
摘要由CSDN通过智能技术生成

谷歌的Transformer模型最早是用于机器翻译任务,当时达到了SOTA效果。

Attention is All You Need:https://arxiv.org/abs/1706.03762

Tensorflow:https://github.com/tensorflow/tensor2tensor

Pytorch代码:http://nlp.seas.harvard.edu/2018/04/03/attention.html

学习资料:https://jalammar.github.io/illustrated-transformer/

 

输入输出

输入:embedding之后的维度为512,位置编码 Positional Encoding

为了能和embedding层的信息做sum,positional encoding layer与embedding层保持相同的维度数。论文选择使用不同频率的正弦和余弦函数,即sine和cosine,来表征token的位置信息,具体公式如下:

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值