课程笔记:Normalization

为啥要 Normalization呢,想想当初为啥要对权值初始化:
数据尺度的变大变小,从而导致梯度逐渐增大
这里是为了解决ICS问题(即数据尺度/分布异常,导致训练困难)

Batch Normalization:
mini-batch是指64或者128或者256
BN一般在激活函数之前,对数据次数进行规范
在这里插入图片描述
scale与shift又称为affine transform,增强模型的容纳能力
在这里插入图片描述
_BatchNorm是基类,主要有5个参数
训练状态:mean和var需要重新估计,根据batch改变;
测试状态:采用当前统计信息,mean与std是固定的
在这里插入图片描述
注意:running_mean不是一个mini-batch得到的均值,是考虑了前一次的mean;running_var也是如此
weight与bias是通过学习得到的参数
在这里插入图片描述
数据格式输入
输入进BN中的数据维度:BCH*W, 在B这个维度上进行计算mean,var,weight,bias的,每个特征维度上都要计算一次这四个值。
在这里插入图片描述
总结:
在BN中会进行:
在这里插入图片描述
包含四个参数:mean, var, weight(即gamma), bias(即beta)
这四个参数是通过特征维度计算而来,每个一个特征维度会通过上图的计算得到这4个参数。在计算mean和var的时候,采用指数加权平均(不仅考虑此batch计算得来的,还要考虑之前数据信息),而weight(即gamma)和bias(即beta)是可学习参数(模型自己学习)。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值