51-5 Transformer 论文精读

李沐(沐神)、朱毅讲得真的好,干货蛮多,醍醐灌顶。编码器、解码器、多头自注意力、自回归的概念没搞清楚的话,值得认真读很多遍,甚至可以当成多模态大模型基础课程学习。

今天我们将讲的是transformer这个模型,也就是大家投票分数最高的一篇模型。这篇文章可以认为是最近三年以来深度学习里面最重要的文章之一,他可以认为是开创了即NLP,CNN和RNN之后的第四大类模。斯坦福联合了100多名作者作了一两百页的综述文章,他们甚至提议说将这一类模型叫做基础模型,可以见它对整个领域的影响力是有多大。

首先我们看一下标题,标题是说Attention Is All You Need,就是说你就需要注意力就行了。当然在英语中这也是一句合法的话,就是对小孩说,集中一下注意力,不要东看西看。这个标题成为了一个梗。你要出文章,就把这个词换成任何跟你想要的词,只要你换成这个词,基本上你的文章能够上头条。然后我们来看一下作者,这里面有八个作者,作者绝大部分都是在Google,然后有两个作者不在Google,他做了一个注释,注释上面写的是这个是这两位作者在Google应该是实习的时候完成的工作。另外比较有意思的是这篇文章每一个作者后面都打了一个星号,星号在论文里面我们一般叫做同样贡献,就是说一般来说我们会把前面一两三个作者的贡献是差不多的,因为在机器学习这一块,我们一般会按照作者对文章的贡献,从大排到小排序,也就是说第一作者通常对文章的贡献是比较大的,很多时候,在绝大部分文章里面,第一作者贡献了80%的事情,有一些情况是说

  • 8
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

深圳季连AIgraphX

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值