论文地址,点这里
摘要
在ImageNet挑战赛中我们训练了一个大型的深度卷积网络,在测试数据集上,我们取得了top1和top5的错误率分别为37.5%和17.0%,比之前的水平有很大的提高。改神经网络有6500万个参数和65万个神经元,改网络有5个卷积层(其中一部分卷积层需要经过最大池化层)和3个全连接层(最后一层为1000类的softmax层),为了使训练更快,我们使用了非饱和神经元和一个非常高效的GPU实现卷积运算.为了减少全连通层的过拟合,我们采用了一种最近发展起来的正则化方法——dropout,它被证明是非常有效的。我们还在ILSVRC-2012比赛中运用了了该模型的一个变体,并获得了15.3%的前5名测试错误率,而第二名获得了26.2%的错误率。