![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文笔记
Jerry_杰瑞
心有猛虎,细嗅蔷薇!
展开
-
VGG-NET 阅读笔记
本论文是牛津大学 visual geometry group(VGG)Karen Simonyan 和Andrew Zisserman 于14年在Alexnet基础上撰写的论文,主要探讨了深度对于网络的重要性;并建立了一个19层的深度网络获得了很好的结果;在ILSVRC比赛上定位第一,分类第二。 论文于此处下载一.概述:本网络从Alex-net发展而来主要修改了两个方面: 1.在网络结构原创 2017-10-19 15:22:06 · 670 阅读 · 0 评论 -
GooleNet -Incepetion V1 学习笔记
GoogLeNet-V1首次出现是在ILSVER 2014 的比赛中(与上篇文章VGG-NET是同一年的参赛作品),当时以比较大的优势取得了第一名.原创 2017-11-07 22:54:41 · 1342 阅读 · 0 评论 -
Batch Normalization(2015,google) 论文阅读笔记
1.BN的提出 作者认为:网络训练过程中参数的不断改变导致后续每一层输入的分布也发生变化,而学习的过程又要使每一层适应输入的分布,因此我们不得不降低学习率、小心的初始化参数。作者将分布发生变化称之为 internal covariate shift(内部协变量转移)。 在进行数据预处理过程中,我们常将输入减去均值,甚至会对输入做白化,降维等操作,目的是为了加快训练。为什么减均值、白化可以加快训练原创 2017-10-14 22:43:28 · 533 阅读 · 0 评论 -
ResNet学习笔记
ResNet(Residual Neural Network)由微软研究院的何凯明大神等4人提出,ResNet通过使用 Residual Unit 成功训练152层神经网络,在ILSCRC2015年比赛中获得3.75%的top-5错误率,获得冠军。原创 2017-11-19 16:20:46 · 2882 阅读 · 1 评论