ImageNet Classification with Deep Convolutional Neural Networks笔记(摘要版)

转载 2015年07月10日 09:47:26

Contents
1.全部架构
2.降低过拟合
3.学习细节
4.结果
5.讨论


本笔记为论文的摘要版,详细数据和论文详解见: http://www.gageet.com/2014/09140.php

本文训练了一个深度卷积神经网络,来将ILSVRC-2010中1.2M的高分辨率图像数据分为1000类。测试结果,Top-1和Top-5的错误率分别为37.5%和17%,优于当时最优的水平。后来作者利用该种模型的变体参与了ILSVRC-2012比赛,以Top-5错误率15.3%遥遥领先亚军的26.2%。最后文章发表于NIPS 2012。

该神经网络包含60M参数和650K神经元,用5个卷积层(其中某些层与亚采样层连接)、三个全连接层(包括一个1K门的输出层)。为使训练更快,文章采用非饱和神经元,包括了大量不常见和新的特征来提升性能,减少训练时间(详见:三 结构)。并利用了一个高效的GPU应用进行卷积运算。在全连接层中,为避免过拟合,文章采用了一种叫做“dropout”的方法(详见:四 降低过拟合)。

最终网络包含5层卷积层和3层全连接层。而这个层深度很重要,因为移除任何一个卷积层,将会导致更差的结果。网络大小主要受限于GPU的内存和训练时间。实验证明,本网络在有两个GTX 580 3GB GPU的机器上训练了5-6天。实验结果显示,如果GPU更快或数据集更大,实验结果将会更好。

具体的实现上,这篇文章在架构上面的一些改进在于:

1.ReLU非线性特征

一句话概括:不用simgoid和tanh作为激活函数,而用ReLU作为激活函数的原因是:加速收敛。

因为sigmoid和tanh都是饱和(saturating)的。何为饱和?个人理解是把这两者的函数曲线和导数曲线plot出来就知道了:他们的导数都是倒过来的碗状,也就是,越接近目标,对应的导数越小。而ReLu的导数对于大于0的部分恒为1。于是ReLU确实可以在BP的时候能够将梯度很好地传到较前面的网络。

2.在多GPU上训练

在每个GPU上放1/2的神经元,但只有某些层才能进行GPU间的通信,在连接与不连接的平衡中找到性能与准确的平衡点。

3.局部响应标准化

一句话概括:本质上,这个层也是为了防止激活函数的饱和的。

个人理解原理是通过正则化让激活函数的输入靠近“碗”的中间,从而获得比较大的导数值。所以从功能上说,跟ReLU是重复的。

不过作者说,从试验结果看,LRN操作可以提高网络的泛化能力,将错误率降低了大约1个百分点。

4.重叠采样

一句话概括,从试验结果看,作者认为Overlapping之后,能够减少网络的过拟合。将Top-1和Top-5的错误率分别降低了0.4%和0.3%(与s=2,z=2相比)。

全部架构

网络包括八个有权值的层。前五层是卷积层,剩下的三层是全连接的。最后一个全连接层是输出层。第二、四、五个卷积层只与上层在同一个GPU上的Kernel Map(下文称特征图)连接,第三个卷积层与第二个卷积层的所有特征图连接。全连接层的神经元与上一层的所有神经元连接(即改进二)。响应标准化层在第一和第二个卷积层之后(改进三),降采样层在响应标准化层和第五个卷积层之后(改进四)。而ReLU非线性公式在每个卷积层和全连接层都有应用(改进一)。

降低过拟合

1.数据增强

通过提取图片的5个224*224切片(中间和四角)和它们的水平翻转来做出预测,预测结果为十次预测的平均值。

第二种数据增强的方式为改变训练图像RGB通道的强度,对RGB空间做PCA,然后对主成分做一个(0, 0.1)的高斯扰动。结果让错误率又下降了百分一。

2.Dropout

将某些层隐藏,按照50%的概率输出0。这些隐藏的神经元不会参加CNN的forward过程,也不会参加back propagation过程。

测试中,我们在前两个全连接层使用了该方法,利用他们所有的神经元,但其输出都乘以了0.5。没有dropout,我们的网络将会产生严重的过拟合。但dropout也使达到收敛的迭代次数增加了一倍。

学习细节

在模型中,0.9倍动量,权值衰减为0.0005,虽然权值衰减值很小,但是对于学习很重要,它减小了模型了训练错误概率。

结果

在ILSVRC-2012测试中CNNs方法Top-5错误率为18.2%,而5种相似CNN结构平均结果的Top-5的错误率为16.4%,将两个预处理后的CNN和上述5CNN平均后的结果进行平均化最后得到的错误率为15.3%。而当时第二的队伍利用SIFT+FVs的错误率为26.2%。

讨论

每移走一层中间的层,Top-1的错误率将会增高2%。

但为了简化实验,文章没有使用任何无监督学习。如果那样,那么在更大规模的网络和更长时间训练的情况下,我们得结果就能得到提高。

相关文章推荐

AlexNet学习笔记1-ImageNet Classification with Deep Convolutional Neural Networks

我们来看看《ImageNet Classification with Deep Convolutional Neural Networks》这篇文章在讲什么。首先论文发表惯例性引言,接着介绍他的实验数...
  • sun_28
  • sun_28
  • 2016年08月06日 10:02
  • 5137

ImageNet Classification with Deep Convolutional Neural Networks AlexNet阅读笔记

论文原文:ImageNet Classification with Deep Convolutional Neural Networks 网络模型名字:AlexNet 1、简介     2012年...
  • XZZPPP
  • XZZPPP
  • 2016年08月02日 10:06
  • 1562

alexnet笔记(ImageNet Classification with Deep Convolutional Neural Networks)

笔记一定要在看过paper的基础上再学习,切记!!! 我建议paper看至少两遍吧,我都是这样做的,每一遍都有不同的收获~之前学习这篇paper的时候在有道云笔记里就做了笔记,不想再写一遍啦,直接附...

经典计算机视觉论文笔记——《ImageNet Classification with Deep Convolutional Neural Networks》

这是CNN复兴的开创之作,个人认为比Hinton老爷子Science上那篇具有更重要的实际意义。有人问CNN怎么调参,其实大部分的答案这篇论文里都能找到。深度CNN最佳启蒙之作,没有之一。 技术概括...

论文笔记《ImageNet Classification with Deep Convolutional Neural Networks》

论文 architecture 简称就是AlexNet。 论文的关键点: 1、采用ReLU激活函数; 2、使用non-saturating neurons; ...

ImageNet Classification with Deep Convolutional Neural Networks论文笔记

这篇文章非常经典,NIPS 2012的文章,讲了一些基础知识,介绍了Alex-net网络,使用深度神经网络在ImageNet上进行分类。Abstract本文训练了一个深度卷积神经网络,将ILSVRC-...

ImageNet Classification with Deep Convolutional Neural Networks笔记

ImageNet Classification with Deep Convolutional Neural Networks  前言 这是meeting report,关于AlexNet的一篇周报。...

论文笔记ImageNet Classification with Deep Convolutional Neural Networks(AlexNet)

先上文章下载地址:ImageNet Classification with Deep Convolutional Neural Networks  2012年出现的AlexNet是目前...

ImageNet Classification with Deep Convolutional Neural Networks 阅读笔记

这篇发表于NIPS2012的文章,是Hinton与其学生为了回应别人对于deep learning的质疑而将deep learning用于ImageNet(图像识别目前最大的数据库)上,最终取得了非常...
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:ImageNet Classification with Deep Convolutional Neural Networks笔记(摘要版)
举报原因:
原因补充:

(最多只允许输入30个字)