为什么Batch Norm有效?

Batch Norm通过标准化输入,防止梯度爆炸和消失,稳定训练过程。它限制了隐藏层输入的变动幅度,保持各层输出的方差一致性,减少层间耦合,提升训练速度。此外,Batch Norm有助于解决优化问题,弱化Hessian矩阵的病态,优化学习率选择,增强网络对非IID数据的泛化能力,并具有正则化效果。
摘要由CSDN通过智能技术生成

最近思考得到的解答,将input进行norm标准化,等价于input进行了缩放,在进行反向传播修正时(以mini batch-SGD为例),计算梯度时,不会出现梯度爆炸和消失(因为在这之前对input进行了norm)。同时batchsize的选取很有讲究,batch太小,计算出的梯度下降方向震荡,或是出现前后更新方向相抵消。导致难以学习,或者无法收敛。太大会导致下降方向无太大变化,求解最优解依赖于学习率的设置,相比batch较小时会消耗更长的时间。

为什么保证方差的一致性对训练有益处?

思考《PRML》中提到的,机器学习算法的基础是独立同分布,在这个大前提下,我们所使用的数据集的分布是被假设为与数据集涉及的内容具有相同分布的(联想吉布斯采样,再联想蒙特卡洛方法),如若不满足独立同分布的假设,那么算法在应用时将会出现问题。现在考虑将大环境设置为深度学习数据集的分布,每次的batch被视为与数据集具有相同分布。此时在训练时由于方差相同,所以不会出现模型繁华问题。同理batchnorm中的将每层的input batch进行标准化,是指服从0均值,1方差的分布,亦能加速训练。

######################################################################################################

卷积神经网络中隐藏层输入为前一层的输出,因此,如果前一层输出的分布改变,那么后续隐藏层的权重矩阵与偏置值必将发生改变(重现训练已学习适应新输入的参数)。

Bacth Norm的使用限制了隐藏层的输入的变动幅度(

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值