卷积神经网络之AlexNet学习

AlexNet与LeNet相比,具有更深的网络结构,包含5层卷积和3层全连接,同时使用了如下三种方法改进模型的训练过程:

  • 数据增广:深度学习中常用的一种处理方式,通过对训练随机加一些变化,比如平移、缩放、裁剪、旋转、翻转或者增减亮度等,产生一系列跟原始图片相似但又不完全相同的样本,从而扩大训练数据集。通过这种方式,可以随机改变训练样本,避免模型过度依赖于某些属性,能从一定程度上抑制过拟合。

  • 使用Dropout抑制过拟合。

  • 使用ReLU激活函数减少梯度消失现象。

1)中心思想
consists of five convolutional layers, some of which are followed by max-pooling layers,and three fully-connected layers with a final 1000-way softmax。Dropout method reduce overfitting in the fully-connected layers。LRN层放在第一个和第二个卷积层后,最大池化层放在了两个LRN层后以及最后一个卷积层后。Relu激活函数则用在了这8层的每一层后面。
2)模型结构
在这里插入图片描述
3)Local Response Normalization
提出了LRN(Local Response Normalization局部响应归一化)层,对局部神经元的活动创建竞争机制,使得其中响应比较大的值变得相对更大,并抑制其他反馈较小的神经元,增强了模型的泛化能力。
在这里插入图片描述

where the sum runs over n “adjacent” kernel maps at the same spatial position, and N is the total
number of kernels in the layer.
备注:后来很多学者,证实这个LRN其实没起多大作用。
Tensorflow 接口实现:
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值