AlexNet的新技术点:

AlexNet的新技术点:
1:成功使用ReLU作为CNN的激活函数,在较深的网络中效果超过了Sigmoid,成功解决了Sigmoid在网络较深时的梯度弥散问题
2:训练时使用Dropout随机忽略一部分神经元,以避免过拟合。最后几个全连接层使用Dropout
3:在CNN中使用重叠的最大池化,步长比池化核的尺寸小,池化层的输出之间会有重叠和覆盖,提升了特征的丰富性
4:提出了LRN层,对局部神经元的活动创建竞争机制,使得其中响应比较大的值变得相对更大,并抑制其他反馈较小的神经元,增强了模型的泛化能力
5:使用CUDA加速深度卷积网络的训练
6:数据增强,随机地从256 * 256 的原始图像中截取224 * 224大小的区域(以及水平翻转的镜像),相当于增加了(256-224)^2*2=2048倍的数据量。进行预测时,取图片的四个角加中间共5个位置,并进行左右翻转,一共获得10张图片,最后结果取平均。同时对图像的RGB数据进行PCA处理,并对主成分做一个标准差为0.1的高斯扰动,可以使错误率降1%

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值