深度学习经典卷积神经网络之AlexNet

AlexNet是2012年ILSVRC比赛的冠军,其创新包括ReLU激活函数、多GPU训练、局部响应归一化和重叠最大池化。数据增强和Dropout技术有效减少了过拟合,整体结构包含5个卷积层和3个全连接层,展示了深度学习在图像识别领域的潜力。
摘要由CSDN通过智能技术生成

论文地址:http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf

中文翻译:http://blog.csdn.net/liumaolincycle/article/details/50496499

1. 网络结构

2012年,Hinton的学生AlexKrizhevsky提出了深度卷积神经网络模型,可以算是LeNet的一种更深更宽的版本,其获得了2012年ILSVRC比赛分类项目的冠军,top-5错误率16.4%,使用额外数据可达到15.3%。AlexNet包含了八个学习层——5个卷积层和3个全连接层。

1.1 修正线性单元ReLU

相对于饱和非线性函数如tanh和sigmoid函数,不饱和非线性函数f(x)=max(0,x)在梯度训练时间上表现要快得多,称这种不饱和非线性的神经元为修正线性单元ReLU。训练带ReLUs的深度卷积神经网络比带tanh单元的同等网络要快好几倍。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值