经典神经网络论文阅读|AlexNet

AlexNet是Krizhevsky等人在2012年NIPS会议上提出的8层卷积神经网络,它在ImageNet图像分类竞赛中取得了突破性成果。该网络引入ReLU激活函数提高效率,采用数据增强、局部响应归一化和dropout策略防止过拟合。通过双GPU并行训练,解决了当时CNN应用于高分辨率图像的计算成本问题。实验显示,增加网络深度能提升准确性,且AlexNet在图像分类任务中表现出色。
摘要由CSDN通过智能技术生成

AlexNet

Krizhevsky et al. "ImageNet classification with deep convolutional Neural Networks " NIPS 2012

动机(Why)

ImageNet 图像分类竞赛中现有模型准确度不足,为了刷点

方法(How)

  • 8层卷积神经网络
  • 使用ReLU,比Sigmoid效率高上很多
  • 数据增强:沿PCA主方向乘以随机系数向量,扩充数据
  • 使用Local Response Normalization 局部响应归一化;作用在同层中相邻的通道之间,之后的VGG论文指出没啥意义,徒增计算量。
  • 防止过拟合:使用重叠池化。后来都不这么做了,进一步说明浅层网络的超参调节策略不能迁移到深层网络中
  • 防止过拟合:dropout 0.5, 测试阶段失活一般神经元,测试阶段使用所有的神经元,但是将神经元的输出乘以0.5
  • minibatch size 128,按一批的平均梯度进行更新
  • SGD Momentum 0.9
  • 卷积层的偏置项为1,鼓励R
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值