计算机视觉3 Batch Normalization

1 Batch Normalization优点

1、加速网络的收敛速度.每层数据的分布都是一样的,训练会比较容易收敛。

2、防止梯度爆炸和梯度消失。数据均值都在0附近.

3、防止过拟合.Bn使得一个minibatch中所有样本都被关联在了一起,因此网络不会从某一个训练样本中生成确定的结果,这样就会使得整个网络不会朝这一个方向使劲学习。一定程度上避免了过拟合.


1、mu0,mu1,mu2 = np.mean(x[:,:,:,0]),np.mean(x[:,:,:,1]),np.mean(x[:,:,:,2])
2、std0,std1,std2 = np.std(x[:,:,:,0]),np.std(x[:,:,:,1]),np.std(x[:,:,:,2])
3(x-np.array(mu0,mu1,mu2))/(np.array(std0,std1,std2))
4、r*x+b


2 Batch Normalization流程




评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值