【读懂论文1】:AlexNet!深度学习大爆炸的奇点!

AlexNet论文引领了深度学习的热潮,它在2012年ILSVRC竞赛中夺冠,推动了计算机视觉的发展。创新点包括:更深的网络结构(5个卷积层)、双GPU并行训练、ReLU激活函数加速收敛、dropout防止过拟合以及数据增强技术提高模型泛化能力。这些创新至今仍影响着深度学习领域的实践。
摘要由CSDN通过智能技术生成

AlexNet

1 意义

该文开启了持续到现在的深度学习热潮,是深度学习近十年来蓬勃发展的宇宙大爆炸奇点。2012年,论文中指出,该方法在ILSVRC-2012竞赛中获得冠军并遥遥领先于第二名。
论文地址:ImageNet Classification with Deep Convolutional Neural Networks

2 创新

2.1 更深

在AlexNet之前较为有名的是九十年代Yan LeCun发表的LeNet,该网络有两个卷积层,主要用于处理手写数字的识别,也就是用经典的MNIST数据集进行训练的网络。、
而AlexNet有5个卷积层,并且Alex也指出,去掉任何一个卷积层都会使结果的精度降低,所以这“比较深”的网络层数是有必要的。
拥有更深的层数,也就是论文标题中“Deep”的所指。而深度学习也由此开花结果到现在还未显疲态。

2.2 俩GPU

如论文中的网络结构图所示,中间的各个层都被分成了上下两个部分,而这是因为AlexNet就是用两个GPU来进行训练的。
在遥远的十年前,对ImageNet这种大型数据集用单个的GPU训练是较为困难的,故在这篇论文中,他们用俩GPU对数据进行并行的计算。值得注意的是,被分成上下两部分的中间层不是一直没有联系的,如第二三卷积层之间,二者的信息是共享的。
同时,相比于只用一个GPU,双GPU为结果提升了1.7%的准确率,不过我并不清楚原因。

2.3 ReLU

正所谓大道至简,相比于设计得更为复杂平滑得 s i g m o i d sigmoid sig

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值