Batch-Normalization

【AI数学】Batch-Normalization详细解析
Batch Normalization 详解 李宏毅

在这里插入图片描述
我们希望 μ \mu μ σ \sigma σ代表train set整体的statistic。但是,实际上,统计train set整体的statistic是很耗费时间的,并且每一层parameters的数值是不断在改变的。所以我们要在batch里边算normalization,这意味着你的batch要很大。如果batch太小,你的batch normalization效果就会很差。你无法从单个极端的normalization里边估计整个data的normalization。
在这里插入图片描述
μ \mu μ σ \sigma σ是会受到 input features 的影响的,而 β \beta β γ \gamma γ与 input features 无关。
在这里插入图片描述
测试的 μ \mu μ σ \sigma σ不好估算,测试是将整个数据用一个batch进来。实际上,将每次batch训练出来的 μ \mu μ σ \sigma σ记录下来,最后做加权平均,靠近updates结束的部分weight更大,updates前边部分weight更小,最后将结果赋给test的 μ \mu μ σ \sigma σ
在这里插入图片描述
Batch normalization主要是针对train效果不好。
Batch normalization在一定程度上eliminate了误差。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

刷子c

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值