机器学习:Batch Normalization

Batch Normalization

在这里插入图片描述

Change Landscape

斜率变化很大时候,需要用调节学习率,优化器得到好的结果。
在这里插入图片描述

w1改变导致L改变,w1的改变对其的影响程度有限时候,

  • w1很小,变化对L的影响是小的
  • w2很大,w2小的变化会对L产生大的影响,w2方向有很大的变化;

在这里插入图片描述
让不同的维度dimension有相同的范围,可以避免这种情况。

Feature Normalization

有不同的normalizaiton方法, 这里以标准化为例:
对每个dimension计算均值,标准差,进行normalization
在这里插入图片描述

做完dimension normalization后,均值为0,方差为1。让梯度下降收敛更快点。

Considering Deep Learning

在这里插入图片描述
虽然第一层进行了特征归一化,但经过后面的层后会乘上w等,也会使得优化变得困难,因此需要对这些层也需要进行normalization处理。
对z做normalization和a做normalization都是可以的,但如果是用sigmoid函数的话,建议放在a的前面。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
u和 σ \sigma σ依赖于z。
在这里插入图片描述
在这里插入图片描述
一堆进行计算,而不是单独考虑。
在这里插入图片描述
只在一个batch中进行normalization
在这里插入图片描述
多了两个参数,gama和beta,进行缩放,gama初始值设置为1,beta初始值设置为0;

Testing for batch normalization

在这里插入图片描述

预测的时候是一个样本的话,怎么算miu和sigma?
在这里插入图片描述
p一般设置为0.1,测试的时候直接用训练的平均值。
在这里插入图片描述
在这里插入图片描述

Internal Covariate Shift

在这里插入图片描述
A的优化方向并不一定适用于A‘的方向,Batch Normalization能使得a和a‘有相似统计。

但是论文 《how does batch Normalization help optimization》 不支持上述观点,支持batch Normalization可以改变error surface不崎岖的观点。不用batch normalization也可以有很多方法可以达到同样的效果。
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

uncle_ll

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值