卷积网络演化史(一)

趁着假期,复习一下卷积网络的演化史

AlexNet

AlexNet的网络结构如下图所示:
在这里插入图片描述
AlexNet网络相比于之前的网络,有四方面的优点:

1.以Relu非线性激活函数取代sigmoids非线性激活函数;。

Relu函数的图像如下图所示:
在这里插入图片描述
由图像可看出,该函数在左侧具有硬饱和性,即当输入落入左侧时,导数为0;由于sigmoid函数在两侧均具有软饱和性,当输入位于两侧的饱和区域时,会使得导数十分小,从而使得传递的梯度变小,从而使得神经网络难以训练。而使用Relu函数时,由于右侧的导数恒为1,因此可以有效的缓解梯度消失现象。

2.AlexNet使用dropout来缓解过拟合问题。

dropout通过随机“关闭”神经网络节点来减少参数量。经过dropout后,神经网络变得稀疏,削弱了神经网络的表达能力,从而缓解过拟合现象。由于神经网络节点是随即关闭的,因此每次训练生成的神经网络结构都会有些许不同。

3.采用数据增强

ALexNet网络在训练时,不再只使用原图,还使用增强过的数据进行训练(比如随机位移或者镜像翻转)。通过这种训练,增强了网络的学习能力。

4. 采用了一些技巧加速训练

比如使用momentum(动量项)以及预先设置的学习率衰减来应对学习停滞的场景。

注意:AlexNet只有一条工作流,图上所示,只是因为AlexNet是在两个GPU上训练的。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值