DeepLearning:训练神经网络—归一化(Normalization)

训练神经网络—Normalization

Normalization出现背景

​ 因为深层神经网络在做非线性变换前的激活输入值随着网络深度加深其分布逐渐发生偏移或变动,导致非线性函数的取值区间在上下限(sigmoid)两端靠近,所以会导致向后传播时底层神经网络的梯度消失,导致训练深层神经网络的收敛速度越来越慢。

Batch Normalization

定义

​ BatchNorm也称BN层,一般放在非线性层之前,BN层通过一定的规范化手段,把每层神经网络任意神经元这个输入值的分布强行拉回到均值为0方差为1的标准正态分布。

公式
x ^ ( k ) = x ( k ) − E ( x ( k ) ) v a r [ x k ] \hat{x}^{\left( \mathrm{k} \right)}=\frac{x^{\left( \mathrm{k} \right)}-E\left( x^{\left( k \right)} \right)}{\sqrt{var\left[ x^k \right]}} x^(k)=var[xk] x

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值