文章目录
1.从哪里下载文献?
①dblp:dblp.org
②papers with code:paperswithcode.com
③arxiv:http://arxiv.org/
④维度学术
2.文献翻译软件
1.ReadPaper:21年出现的火出圈的文献翻译软件,985圈都在用。
2.知云文献翻译:上手简单,段落翻译,但翻译的一般
知云官网:https://www.zhiyunwenxian.cn/
3.Zotero:上手有一定难度
①Zotero官网:https://www.zotero.org/download/
②Zotero教程:文献管理利器Zotero的使用说明
4.GPT4:快速提取论文内容,可一次上传多篇同时对比
5.豆包:可全文翻译,增强翻译。但初翻很一般。
6.直接搓pdf,然后不会的单词查字典
7.小绿鲸
最快的方式:扔给GPT,让它总结【中文总结】
次快的方式:ReadPaper、豆包,全部显示为中文【中文文档】
其次的方式:知云文献翻译,看不懂的段落,直接划词,翻译为中文【中文段落】
最慢的方式:对着原pdf,一个生词一个生词查有道词典【中文单词】
论效率,越快越好。论效果,越慢越好。自己掌握平衡。
3.阅读第一篇论文
作为一个研一新生,科研新手,第一次阅读论文,应该如何入门?读一篇论文,应该抓住哪些重点?
(1)论文结构
①标题 (Title)
②摘要 (Abstract)
③引言 (Introduction)
④方法 (Method)
⑤实验 (experience)
⑥结论 (conclusion)
⑦关键词
⑧参考文献
正常讲论文的流程:说摘要,讲模型框架,讲结果,结束。框架也是照着翻译提炼后的念。
全hy老师讲怎么看论文:①摘要(Abstract) ②介绍(Introdution)的最后部分,总结自己的创新点 ③方法 (methdology)
(2)目标
用一句话通俗易懂地讲明白这篇文章做了什么,让老师甚至你的父母都能听懂。抓住本文的特性,和其他论文的区别是什么。
看文献抓重点,只看你想要的东西
1.看模型实现了什么目标,拿什么实现的
2.摘要或引言里,看他自己说的创新点,然后在文章里找他怎么实现的这个创新点
3.先看摘要和结论,有些他们创新的算法要看挺久
4.综述 survey
综述文章的作用:综述文章可以帮助我们快速了解该领域的研究动态和主要成果。
①总结与整合:综述文章通过汇总和整合特定领域内的研究成果,帮助读者快速了解该领域的发展历程、现状及主要问题。
②识别研究趋势:通过对大量文献的分析,综述文章可以揭示研究领域内的趋势、热点和未来的发展方向,帮助研究者把握前沿动态。
5.使用GPT辅助论文的阅读与写作
1.用GPT简述内容,整理创新点,写综述,解析代码
①将几篇文章放上去,让GPT帮忙写成综述,将每篇论文用两句话总结,然后整理共同点和不同点。
②用传统的方式肉眼逐篇逐字去看,一些细节一开始很难看懂,有些专有名词不认识,需要一个个查,用GPT会方便理解。
③写毕设的时候,用GPT来写毕业论文的第一章很爽。
④用GPT来拓展思路也很有用。
6.专有名词
(1)架构
1.Transformer:Transformer模型架构是一种基于自注意力机制的神经网络结构。
2.Pytorch、TensorFlow:两种深度学习框架。2019年起,Pytorch逐步取代TensorFlow成为主流。
(2)网络
1.CNN:卷积神经网络。
在 Transformer 被广泛应用之前,CNN 是计算机视觉领域的主流架构,用于图像分类、目标检测、图像分割等任务。许多经典的视觉模型(如 ResNet、VGG、Inception 等)都是基于 CNN 的。
2.U-Net:基于CNN,主要用于生物医学图像分割。
3.ResNet:基于CNN,何凯明提出,为了解决深度神经网络中的梯度消失和梯度爆炸问题(解决深层网络退化问题),使得训练更深的神经网络成为可能。ResNet 的核心思想:残差模块,残差学习。应用:图像分类、目标检测(Faster R-CNN)与图像分割(Mask R-CNN模型都采用ResNet作为特征提取的主干网络)、迁移学习(医学图像分析、遥感图像分类)
(3)机器学习
1.机器学习的两种主要学习方法:
①有监督学习(Supervised Learning):一种机器学习方法,其中模型通过使用带有标签的训练数据来学习预测目标变量的关系。
②无监督学习(Unsupervised Learning):使用未标记的数据,算法必须自行发现数据中的结构
2.baseline:在深度学习和机器学习中,baseline(基线)指的是在某项任务中用来作为参照的基础模型或标准方法。它为新模型的性能提供一个基准,以便评估新方法的改进效果或有效性。许多图像分割任务中,U-Net 经常被用作 baseline。U-Net 因其卓越的分割能力和易于实现的结构,已经成为医学图像分割、语义分割等任务中的标准模型。因此,很多研究都会使用 U-Net 作为 baseline,对比新方法在分割任务中的表现。
3.欠拟合与过拟合
①欠拟合 (Underfitting):训练集和测试集表现很都差。因此模型太简单、训练数据不够。
②过拟合 (Overfitting):训练集表现好,测试集表现差。模型记住了训练集的太多噪声。
4.训练集、验证集、测试集
①训练集 (Training Set):模型训练
②验证集 (Validation Set):模型调优
③测试集 (Test Set):测试模型
7.如何判断(你自己的)研究工作的价值or贡献【论文精读·李沐】
新意度 × 有效性 × 问题大小 = 价值
8.经典论文
(1)AlexNet 2012
(2)FCN 全卷积 2014
(3)ResNet:残差学习(Residual Learning)
(4)Attention is All You Need 2017
1.Transformer model的开山奠基之作,首次引入了自注意力机制(self-attention mechanism):《Attention is All You Need》,2017年6月12日
讲解链接:https://zhuanlan.zhihu.com/p/673974803
9.论文等级
五档:
①CCF
②SCI
③EI
④核心期刊
⑤普刊