批规范化 Batch Normalization + 正则化作用

正则化作用:

 最小化误差:拟合训练数据,

正则化参数:防止模型过分拟合训练数据,通常使用 L2正则化

L0:0范数,扰动 非0元素的个数

L1:1范数,各元素的绝对值之和

L2: 2范数,平方和再开方,通常用2范数来衡量扰动的程度

L无穷:无穷范数,各元素的绝对值的最大值,表示扰动的最大值

 

其他的正则化方法:

  • dropout 丢弃法每个神经元都有可能被丢掉,因此模型训练的时候,模型不敢给任何神经元过大的参数

  • early-stopping

 

批规范化 Batch Normalization

对数据做批规范化,使得数据满足均值为0,方差为1的正态分布。 

主要作用是:缓解DNN训练中的 梯度消失 / 梯度爆炸现象,加快模型的训练速度。

通过一定的规范化手段,把每层神经网络任意神经元这个输入值的分布强行拉回到均值为0方差为1的标准正态分布,其实就是把越来越偏的分布强制拉回比较标准的分布,这样把输入的分布变窄(固定在[-1,1]),但是让梯度变大,避免梯度消失问题产生,而且梯度变大意味着学习收敛速度快,能大大加快训练速度。

 

BN的优点:

1、极大提升了训练速度,收敛过程大大加快;

2、增加了分类效果,一种解释是这是类似于Dropout的一种防止过拟合的正则化表达方式,所以不用Dropout或正则化也能达到相当的效果;

3、简化了调参过程,对于初始化参数权重不太敏感,允许使用较大的学习率

 

 
  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值