Introduction
各位看官,此篇本意是记录在科研及生活中遇到的能极大提高生产力的一些小玩意儿和博文,最起码现在来看都是小玩意儿。会不断迭代增添,最后到一定程度不得不整理的时候大概会是一个比较有用的东西吧。
正文
- https://d2l.ai/index.html 《Dive into deep learning》有些地方讲得不太清晰,但是好在有数学公式。
- zhuanlan.zhihu.com/p/410776234 这是一篇讲解self-attention的一篇神文,表述清晰配图丰富,在食用难度上属于薯片级别
- blog.floydhub.com/attention-mechanism/ 讲解attention在seq2seq任务中的应用,讲解了两种经典的方式:Bahdanau 和 Luong。不得不说,外国的这种详细的博客还是写得好,全篇没有难词,跟那些经济学的论文完全不一样,那些文读起来贼痛苦
- https://www.joshbelanich.com/multi-headed-attention 多头自注意力
- https://zhuanlan.zhihu.com/p/102697821 nn.DataParallel
- https://zhuanlan.zhihu.com/p/30844905 RNN介绍
- 利用插件 TamperMonkey 快速下载 arxiv 论文
- 插件下载网站 crx4chrome.com/
- 脚本来源 zhuanlan.zhihu.com/p/36940772
- 快速下载github资源的网站 d.serctl.com/
- python re教程 https://realpython.com/regex-python/
10.中心极限定理 https://www.scribbr.com/knowledge-base/
吐槽
对于提出论文里面各种看似高深实际让人弄不懂的学术用语的人真该被挂在树上先枪决再犬决。
MLP (Multilayer Perceptron)就是全连接层,全连接多直观多好看,搞个多层感知机真是…