GoogLeNet Inception v2

本文探讨了深度网络训练中的内部协变量偏移问题,提出BatchNormalization(批量归一化)方法,通过归一化激活层来加速训练过程。受白化技术启发,批量归一化能减小内部协变量偏移,允许使用更大学习率,并作为正则化策略减少Dropout的使用。实验结果显示,批量归一化显著提升了训练效率。
摘要由CSDN通过智能技术生成

这篇文章出自《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》。

1. 研究问题

深度网络训练存在internal covariate shift 内部协变量偏移的问题,导致训练缓慢。

注:内部协变量偏移是指在神经网络训练过程中,其内部的激活层(每一层的输出,同时也是下一层的输入)的分布不断的发生变化的现象,这种现象将导致训练过程的缓慢。

2. 研究方法

提出了Batch Normalization,使用批量训练数据,对激活层进行归一化,减小激活层的协变量偏移,使得激活层的分布更加稳定,从而加快训练速度。

2.1 思想来源

该方法受到白化的启发,将白化应用于内部的激活层,减小激活层的协变量偏移。

注:白化是指将输入进行归一化,使输入服从均值为0,方差为1的的分布,这样可以使训练过程更快的收敛。

2.2 批量归一化

在这里插入图片描述

2.3 BN网络的训练和预测

在这里插入图片描述

2.4 BN卷积网络

在这里插入图片描述

2.5 更大的学习率

在这里插入图片描述

3. 实验结果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4. 结论

(1)BN可以减小内部协变量偏移,从而加快训练过程。
(2)BN允许使用更高的学习率
(3)正则化的一种策略,可以减小Dropout的使用。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值