2018/12/27,周四
漫漫读博路
今天和zhouyu老师谈了一下,主要是我科研能力尚不完善,看论文get不到key point,导致别人问这篇文章讲了什么的时候,我只有说了具体的实现过程,没有铺垫,核心思想等等。
1.前期调研
也就是一开始mentor指了方向,比如说source code上的language model,然后就应该广泛的去搜集资料,也就是查文献,怎么查呢?
- 这个领域的高引文献、基础的开山之作等等比如语言模型的benjio的NNML,Mikolov的word2vec以及standford的GloVe,这个文献起码要从别人口中得到,这是必须要知道,要是有一门综述就更好了。好好读一读就算是入门,如果是入门的人,那这一步是可以省略掉的。
直接广搜论文。 - 广搜的时候先是论文的出处,我们就需要看看
Program languages & Software engineering: PLDI, ICSE,ESEC/FSE,MSR
Machine learning: ICLR, ICML, NIPS
- 看摘要 in this paper干了什么,是不是词向量,看experience是NLP的文本分类、word analogy、machine translation还是source code领域相关的,这样广度搜索出适合自己的论文。
2.读论文
读论文分为粗读和精度,不是一遍粗一边精,论文是要反复读的。
以Enriching Word Vectors with Subword Information为例
文章分为思想和model,想要别人或者自己清楚了解这篇文章,请将思想,想实现,请将model。
思想:
- 需要知道论文的背景:是要把word变成vector
- 以前的工作:word2vec等等,优缺点是什么,比如对很多NLP任务都很有用,但是不适用于rare word或者large vocabulary。
- 改进的point的是:用morphology信息
- 方法:基于skip-gram,用character n-gram的和来表示词向量
3. 练手
读论文读累了,可以去实现一写开源项目,或者跑一跑开源代码,刷刷李宏毅或者吴恩达的机器学习和深度学习,或者学英语。