最近学了一些关于深度学习的算法,比如FPN,SSD,FasterRCNN等,但是都没有读过相关的论文,总感觉只跑跑模型有点站不住脚,对代码里面一些实现过程很疑惑,不明白为什么要这样做,于是打算花点时间读读这些经典神经网络的论文,充实一下自己的理论知识。
一篇论文分一般为一下几个结构:
- Title 标题
- Abs 摘要
- Intoo 导言
- Method 算法
- Exp 实验
- Conclusion 结论
一篇论文大致需要读三遍:
- 第一遍:对论文做海选,了解这篇论文大致的研究方向。先读标题,摘要,然后直接跳到结论, 结论可能和摘要类似,但是结论中会将摘要里面提出的问题用一些实际的数字进行证明,读完这三个部分大概就知道这篇论文在干什么了,之后可以大致看看实验和算法这部分的流程图,看这部分在做哪些事情,看完这几部分后大概十几分钟,之后再根据这篇论文的质量和跟自己研究的方向来考虑要不要继续深度这篇论文。
- 第二遍:对论文做精选。把整个文章过一遍,要知道每一个模块在干什么,也就是细读算法和实验这两部分,但是也不需要太注意一些细节,里面的一些公式和证明可以先忽略掉,主要是理解那些图和表里面的每一步在做什么事情,比如说算法里面的流程图、作者提出的算法和别人的算法是怎么对比的,如果遇到不是很明白部分,可以先圈起来,等第三遍再仔细研究,第二遍就是为了对这篇论文每个部分有个大致的了解,如果遇到文中作者引用了很重要的文献,并且你没有读过的话,也可以先圈起来,如果感觉这篇文章比较难的话,可以先去读作者引用的文章,可能那些文章门槛比较低。
- 第三遍:研读论文。这一遍也是最细致的一遍,要明白作者每一句话是什么意思,每一段在做什么事情,并且在读的时候要把自己带入到论文里面,比如作者在做实验用了一些比较巧妙的方法,你就要去想,自己在做实验的时候是不是可以参考一下,或者说进一步改进。