深度学习中的正则化处理Normalization

Normalization

Batch Normaliation

批标准化处理,批:指一批数据,通常为mini-batch;标准化:0均值,1方差。

  • 可以用更大学习率,加速模型收敛
  • 可以不用精心设计权值初始化
  • 可以不用dropout或者较小的dropout
  • 可以不用L2或者较小的Weight decay
  • 可以不用LRN(local response normalization)

计算式

在这里插入图片描述

其中,normalize步骤中 ϵ \epsilon ϵ为修正项,为了防止分母为零的情况出现。处理后 x ^ \hat{x} x^即为0均值1方差,但BN算法仍未结束,最后还需要进行一步Affine Transform,即 γ x i ^ + β \gamma\hat{x_i}+\beta γxi^+β其中 γ \gamma γ β \beta β称为scale与shift,这两个参数是可学习的,可通过反向传播改变。

_BatchNorm

pytorch中的Batch Normalization实现

  • num_features:一个样本特征数量(最重要)
  • eps:分母修正项
  • momentum:指数加权平均估计当前mean/var
  • affine:是否需要affine transform,默认为Tru
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值