Batch Norm

Batch Norm

source from: Deep Learning Specialization

效果

  • normalize inputs to speed up learning
  • mean/variance computed on just that mini-batch similar to dropout, it adds some noise to each hidden layer’s activations. Thus, this has a slight regularization effect

过程

块正则化过程:

Before:z(1)z(2)...z(m)μ=1miz(i)σ2=1mi(z(i)μ)2After:z(i)norm=z(i)μσ2+ϵ(ϵ)z^(i)=αz(i)norm+β

α β 作为学习参数

由此原先

z[l]=w[l]a[l1]+b[l]

中的 b[l] 没有了任何作用

测试中的Batch Norm

由于测试中只能使用一个样本,因此Batch Norm中的mean/variance不再有实际意义。
测试中使用的mean/variance是训练中多个mini-batch的指数加权平均。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值