![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文笔记
文章平均质量分 74
Meng
这个作者很懒,什么都没留下…
展开
-
论文阅读笔记--LightGBM: A Highly Efficient Gradient Boosting Decision Tree
以前学习集成学习时候,都是从网上博客等等一些地方学习的,最近重新复习学习,所以拿出论文来读,这个是这篇论文LightGBM: A Highly Efficient Gradient Boosting Decision Tree的自己的笔记。 在我理解中,这篇论文,是对GBDT算法的改进,是对GBDT算法的增速。主要的改进点就在对训练数据的处理上,其实对算法本质没有改进。 ...原创 2018-06-24 15:29:10 · 899 阅读 · 0 评论 -
论文阅读笔记--VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION
这篇论文主要工作就是探索网络结构,对大规模图像识别任务,网络深度对于最终模型准确率的影响,带有小的卷积核(3*3)的网络,深度的增加会提高准确率,直到网络深度到达16-19层。根据这个论文的摘要,我想到两个关键点:为什么卷积核是3*3为什么到16-19层精度不再提高卷积核大小在这篇论文中,我最感兴趣的点在于,卷积核大小的设置。两个3*3的卷积层叠加,中间不加池化层,那么它的有效感受野(effect...原创 2018-06-25 09:58:47 · 375 阅读 · 0 评论 -
inception-v1,v2,v3,v4----论文笔记
最近通读了inception的四篇论文,在此做一下笔记。先给出这四篇论文的地址:Going deeper with convolutions:https://arxiv.org/pdf/1409.4842.pdfBatch Normalization: https://arxiv.org/pdf/1502.03167.pdfRethinking the Inception Architecture...原创 2018-07-09 10:07:10 · 34212 阅读 · 7 评论 -
ResNet----论文笔记
这篇论文,一个主要的目的就是把网络变深,变得更深。因此有了残差连接的诞生。从两个方面记录笔记:为什么会用残差连接,什么是残差学习。为什么会用残差连接作者提出一个网络训练过程中出现的问题,叫做“degradation”。 训练过程中,梯度消失/爆炸问题已经解决了,通过精心的初始化以及加上batch normalization层,可以用SGD优化算法训练。但是随着层数的增加,准确率会达到饱和...原创 2018-07-13 10:37:57 · 300 阅读 · 0 评论