谈话小结

2018/12/27,周四
漫漫读博路
今天和zhouyu老师谈了一下,主要是我科研能力尚不完善,看论文get不到key point,导致别人问这篇文章讲了什么的时候,我只有说了具体的实现过程,没有铺垫,核心思想等等。

1.前期调研

也就是一开始mentor指了方向,比如说source code上的language model,然后就应该广泛的去搜集资料,也就是查文献,怎么查呢?

  1. 这个领域的高引文献、基础的开山之作等等比如语言模型的benjio的NNML,Mikolov的word2vec以及standford的GloVe,这个文献起码要从别人口中得到,这是必须要知道,要是有一门综述就更好了。好好读一读就算是入门,如果是入门的人,那这一步是可以省略掉的。
    直接广搜论文。
  2. 广搜的时候先是论文的出处,我们就需要看看
Program languages & Software engineering: PLDI, ICSE,ESEC/FSE,MSR        
Machine learning: ICLR, ICML, NIPS
  1. 看摘要 in this paper干了什么,是不是词向量,看experience是NLP的文本分类、word analogy、machine translation还是source code领域相关的,这样广度搜索出适合自己的论文。

2.读论文

读论文分为粗读和精度,不是一遍粗一边精,论文是要反复读的。
Enriching Word Vectors with Subword Information为例
文章分为思想和model,想要别人或者自己清楚了解这篇文章,请将思想,想实现,请将model。
思想:

  1. 需要知道论文的背景:是要把word变成vector
  2. 以前的工作:word2vec等等,优缺点是什么,比如对很多NLP任务都很有用,但是不适用于rare word或者large vocabulary。
  3. 改进的point的是:用morphology信息
  4. 方法:基于skip-gram,用character n-gram的和来表示词向量

3. 练手

读论文读累了,可以去实现一写开源项目,或者跑一跑开源代码,刷刷李宏毅或者吴恩达的机器学习和深度学习,或者学英语。

未完待更新

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值