关闭

ImageNet Classification with Deep Convolutional Neural Networks笔记(摘要版)

标签: 卷积神经网络深度学习
726人阅读 评论(0) 收藏 举报
分类:

Contents
1.全部架构
2.降低过拟合
3.学习细节
4.结果
5.讨论


本笔记为论文的摘要版,详细数据和论文详解见: http://www.gageet.com/2014/09140.php

本文训练了一个深度卷积神经网络,来将ILSVRC-2010中1.2M的高分辨率图像数据分为1000类。测试结果,Top-1和Top-5的错误率分别为37.5%和17%,优于当时最优的水平。后来作者利用该种模型的变体参与了ILSVRC-2012比赛,以Top-5错误率15.3%遥遥领先亚军的26.2%。最后文章发表于NIPS 2012。

该神经网络包含60M参数和650K神经元,用5个卷积层(其中某些层与亚采样层连接)、三个全连接层(包括一个1K门的输出层)。为使训练更快,文章采用非饱和神经元,包括了大量不常见和新的特征来提升性能,减少训练时间(详见:三 结构)。并利用了一个高效的GPU应用进行卷积运算。在全连接层中,为避免过拟合,文章采用了一种叫做“dropout”的方法(详见:四 降低过拟合)。

最终网络包含5层卷积层和3层全连接层。而这个层深度很重要,因为移除任何一个卷积层,将会导致更差的结果。网络大小主要受限于GPU的内存和训练时间。实验证明,本网络在有两个GTX 580 3GB GPU的机器上训练了5-6天。实验结果显示,如果GPU更快或数据集更大,实验结果将会更好。

具体的实现上,这篇文章在架构上面的一些改进在于:

1.ReLU非线性特征

一句话概括:不用simgoid和tanh作为激活函数,而用ReLU作为激活函数的原因是:加速收敛。

因为sigmoid和tanh都是饱和(saturating)的。何为饱和?个人理解是把这两者的函数曲线和导数曲线plot出来就知道了:他们的导数都是倒过来的碗状,也就是,越接近目标,对应的导数越小。而ReLu的导数对于大于0的部分恒为1。于是ReLU确实可以在BP的时候能够将梯度很好地传到较前面的网络。

2.在多GPU上训练

在每个GPU上放1/2的神经元,但只有某些层才能进行GPU间的通信,在连接与不连接的平衡中找到性能与准确的平衡点。

3.局部响应标准化

一句话概括:本质上,这个层也是为了防止激活函数的饱和的。

个人理解原理是通过正则化让激活函数的输入靠近“碗”的中间,从而获得比较大的导数值。所以从功能上说,跟ReLU是重复的。

不过作者说,从试验结果看,LRN操作可以提高网络的泛化能力,将错误率降低了大约1个百分点。

4.重叠采样

一句话概括,从试验结果看,作者认为Overlapping之后,能够减少网络的过拟合。将Top-1和Top-5的错误率分别降低了0.4%和0.3%(与s=2,z=2相比)。

全部架构

网络包括八个有权值的层。前五层是卷积层,剩下的三层是全连接的。最后一个全连接层是输出层。第二、四、五个卷积层只与上层在同一个GPU上的Kernel Map(下文称特征图)连接,第三个卷积层与第二个卷积层的所有特征图连接。全连接层的神经元与上一层的所有神经元连接(即改进二)。响应标准化层在第一和第二个卷积层之后(改进三),降采样层在响应标准化层和第五个卷积层之后(改进四)。而ReLU非线性公式在每个卷积层和全连接层都有应用(改进一)。

降低过拟合

1.数据增强

通过提取图片的5个224*224切片(中间和四角)和它们的水平翻转来做出预测,预测结果为十次预测的平均值。

第二种数据增强的方式为改变训练图像RGB通道的强度,对RGB空间做PCA,然后对主成分做一个(0, 0.1)的高斯扰动。结果让错误率又下降了百分一。

2.Dropout

将某些层隐藏,按照50%的概率输出0。这些隐藏的神经元不会参加CNN的forward过程,也不会参加back propagation过程。

测试中,我们在前两个全连接层使用了该方法,利用他们所有的神经元,但其输出都乘以了0.5。没有dropout,我们的网络将会产生严重的过拟合。但dropout也使达到收敛的迭代次数增加了一倍。

学习细节

在模型中,0.9倍动量,权值衰减为0.0005,虽然权值衰减值很小,但是对于学习很重要,它减小了模型了训练错误概率。

结果

在ILSVRC-2012测试中CNNs方法Top-5错误率为18.2%,而5种相似CNN结构平均结果的Top-5的错误率为16.4%,将两个预处理后的CNN和上述5CNN平均后的结果进行平均化最后得到的错误率为15.3%。而当时第二的队伍利用SIFT+FVs的错误率为26.2%。

讨论

每移走一层中间的层,Top-1的错误率将会增高2%。

但为了简化实验,文章没有使用任何无监督学习。如果那样,那么在更大规模的网络和更长时间训练的情况下,我们得结果就能得到提高。

0
0

查看评论
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
    个人资料
    • 访问:238601次
    • 积分:3198
    • 等级:
    • 排名:第10664名
    • 原创:70篇
    • 转载:9篇
    • 译文:1篇
    • 评论:88条
    最新评论