小常识27:Batch Normalization 的原理与作用

本文探讨了Batch Normalization(BN)在深度学习中的核心作用,阐述了其本质思想,即通过规范化操作保持激活输入值的分布稳定,解决深层网络训练时的梯度消失问题,从而提高训练速度和收敛性能。BN在Mini-Batch SGD下的实现方法也被介绍,并指出BN能够提升模型效果,防止过拟合,降低调参难度。
摘要由CSDN通过智能技术生成

小常识27:Batch Normalization 的原理与作用

(阿里达摩一面基础题——机器学习2019届内推)

1、Batch Normalization的本质思想

BN的基本思想其实相当直观:因为深层神经网络在做非线性变换前的激活输入值(Y=Wx+Bx是输入)随着网络深度加深或者在训练过程中,其分布逐渐发生偏移或者变动,之所以训练收敛慢,一般是整体分布逐渐往非线性函数的取值区间的上下限两端靠近(对于Sigmoid函数来说,意味着激活输入值WU+B是大的负值或正值),所以这导致后向传播时低层神经网络的梯度消失,这是训练深层神经网络收敛越来越慢的本质原因,而

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值