【资源向】论文+插件+网站

Introduction

各位看官,此篇本意是记录在科研及生活中遇到的能极大提高生产力的一些小玩意儿和博文,最起码现在来看都是小玩意儿。会不断迭代增添,最后到一定程度不得不整理的时候大概会是一个比较有用的东西吧。

正文

  1. https://d2l.ai/index.html 《Dive into deep learning》有些地方讲得不太清晰,但是好在有数学公式。
  2. zhuanlan.zhihu.com/p/410776234 这是一篇讲解self-attention的一篇神文,表述清晰配图丰富,在食用难度上属于薯片级别
  3. blog.floydhub.com/attention-mechanism/ 讲解attention在seq2seq任务中的应用,讲解了两种经典的方式:Bahdanau 和 Luong。不得不说,外国的这种详细的博客还是写得好,全篇没有难词,跟那些经济学的论文完全不一样,那些文读起来贼痛苦
  4. https://www.joshbelanich.com/multi-headed-attention 多头自注意力
  5. https://zhuanlan.zhihu.com/p/102697821 nn.DataParallel
  6. https://zhuanlan.zhihu.com/p/30844905 RNN介绍
  7. 利用插件 TamperMonkey 快速下载 arxiv 论文
    • 插件下载网站 crx4chrome.com/
    • 脚本来源 zhuanlan.zhihu.com/p/36940772
  8. 快速下载github资源的网站 d.serctl.com/
  9. python re教程 https://realpython.com/regex-python/
    10.中心极限定理 https://www.scribbr.com/knowledge-base/

吐槽

对于提出论文里面各种看似高深实际让人弄不懂的学术用语的人真该被挂在树上先枪决再犬决。
MLP (Multilayer Perceptron)就是全连接层,全连接多直观多好看,搞个多层感知机真是…

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值