论文阅读笔记——Attention is all you need

(!!!!事先声明!这不是技术分享贴!CSDN虽说都是大佬们的分享平台,但是我只是想把它当做是我的云笔记,内容不敢保证全部正确,风格也都只用自己能懂的大白话,写的时候当做日记记录心情,所以请不要随便评价别人日记写的如何如何,作者童心未泯脾气大,不接受批评,只接受表扬与讨论,不想看请移步大佬贴,谢谢)

前言
2021年,研一下学期,这是我在CSDN上写的第一个博客
其实对于人生这漫漫长路而言,研究生学习时间真的很短暂,上学期就想着多读读论文,多跑跑实验,不要浪费大好青春,可这一学期下来感觉自己越发的懒惰。好不容易读的那些文章统统忘了个差不多,寒假因疫情原因没回家,每天浑浑噩噩虚度光阴。
感觉不能再这样下去了!既然自己懒惰,那就逼着自己写写代码写写博客好了,并且给自己定个小目标:至少一周阅读两篇论文,其中一篇要精读+写笔记(瞎tmd立flag,看看我能坚持多久吧哈哈哈)

对这篇文章的看法:
Transformer在我看来,可是具有夸时代意义的文章(如今AI大佬们打的水深火热,一个时代也就一年时间吧),attention机制的提出让NLP领域有着飞速的进展。其实最早我接触attention机制的时候还是个连CNN都不懂的小萌新,除了NB也说不出什么别的话来。现在是2021年初,学术届的研究方向已经到了将attention应用到CV上来,我也要紧随时代潮流才可以。然而看来看去发现,这篇文章是基础,看不懂这最经典的,怎么继续深造?
(于是乎写个笔记怕自己以后忘)

OK 废话连篇,开始正题

论文原址:https://arxiv.org/abs/1706.03762
带领我入门transformer的大佬贴:https://www.cnblogs

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值