AlexNet

关于AlexNet的一些个人看法,如有错误欢迎指出。参考《TensorFlow实战》之6.1,P98

网络构架如下:

  1. conv1:(11*11*3*64),stride=4,padding='SAME',lrn,pool1:3*3,stride=2,padding='VALIDE'
  2. conv2:(5*5*64*192),sreide=1,padding='SAME',lrn,pool2:3*3,stride=2,padding='VALIDE'
  3. conv3:3*3*192*384,stride=1
  4. conv4:3*3*384*256,stride=1
  5. conv5:3*3*256*256,stride=1,padding='SAME',pool5:3*3,stride=2padding='VALID'

 

图片链接:https://www.cs.toronto.edu/~frossard/post/vgg16/#files

highlig

1.成功使用ReLU函数替代Sigmoid作为激活函数。解决了sigmoid函数网络较深时梯度弥散问题。(后续详细解释两个激活函数的不同)

2.Drop随机忽略一部分神经元,避免过拟合

3.使用重叠的的最大池化,避免平均池化的模糊化效果,AlexNet提出了步长小于卷积核尺寸。这样的处理池化层的输出之间会有重叠和覆盖,提高特征泛化能力,提升特征丰富性。

4.提出了LRN层。对局部神经元活动创造竞争机制,使得其中响应比较大的值变得相对更大,抑制其他反馈较小的神经元,增加模型泛化能力。参考博客:https://blog.csdn.net/yangdashi888/article/details/77918311

5.CUDA加速,并行运算能力。(显存)

6.数据增强。随机截取224*224大小区域(以及水平翻转镜像),相当于增加了^{\left ( 256-224 )^{2}}*2=2048(256-224)^{2}*2=2048的数据量,进行测试时,取图片四个角加中间共五个位置,左右翻转或的十张图片,预测并求取平均值。

预处理:对RGB图像进行PCA处理,对主要成分做标准差为0.1的高斯扰动,增加噪声,可以使错误率下降1%

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

sun_ching

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值