【无标题】【Datawhale X 李宏毅苹果书 AI夏令营】批量归一化

1、批量归一化的作用

批量归一化(Batch Normalization,BN)的把误差曲面变得平滑,使训练能够得到快速收敛;
训练过程的优化:使用自适应学习率等比较进阶的优化训练方法;
训练对象的优化:批量归一化可以改变误差表面,让误差表面比较不崎岖
参数 w i w_i wi是指训练参数或者训练的目标

1.1 特征归一化

当输入的特征,每一个维度的值,它的范围差距很大的时候,我们就可能产生像这样子的误差表面,就可能产生不同方向,斜率非常不同,坡度非常不同的误差表面。因此我们可以给不同的维度,同样的数值范围的话,那我们可能就可以制造比
较好的误差表面,让训练变得比较容易一点其实有很多不同的方法,这些不同的方法往往就合起来统称为特征归一化(feature normalization)。

1.2 Z 值归一化(标准化)

在这里插入图片描述
归一化后选中特征都数值平均值是 0,方差是1的维度上,这样误差表面比较平滑,能够提升训练,损失收敛的更快一点。

2、考虑深度学习过程中的归一化

在这里插入图片描述
u = 1 n ∑ i = 1 n z i u=\frac{1}{n}\sum_{i=1}^{n}z^i u=n1i=1nzi
σ = 1 n ∑ ) i = 1 n ( z i − u ) 2 \sigma=\sqrt{\frac{1}{n}\sum)_{i=1}^{n}(z^i-u)^2} σ=n1)i=1n(ziu)2

在这里插入图片描述
![](https://i-blog.csdnimg.cn/direct/876749a63a1c495fb5d9fc38c1e269e6.png

为实际实现的时候,只对一个批量里面的数据做归一化,所以技巧称为批量归一化。

3、测试时的批量归一化

在这里插入图片描述

4、内部协变量偏移

协变量偏移(covariate shift),训练集和预测集样本分布不一致的问题就叫做协变量偏移现象,这个词汇是原来就有的,内部协变量偏移是批量归一化的作者自己发明的。
在这里插入图片描述
其实批量归一化不是唯一的归一化,还有很多归一化方法,比如批量重归一化(batch
renormalization)、层归一化(layer normalization)、实例归一化(instance normalization)
、组归一化(group normalization)、权重归一化(weight normalization)和谱归一
化(spectrum normalization).

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值