小结:归一化Normalization(持续更新)

本文详细介绍了归一化技术在深度学习中的应用,包括标准化、中心化、批量归一化(BN)、样本归一化(IN)、权重归一化(WN)、层归一化(LN)、组归一化(GN)和可选归一化(SN)。重点讨论了BN的作用、优势以及如何缓解内部协变量漂移,同时提到了各种归一化方法的不同应用场景。
摘要由CSDN通过智能技术生成

0 归一化(N)

0.1 定义

目的:数据缩放,消除量纲,加快收敛,避免数值问题(太大,太小)

把数据变成 (0,1)或者(-1,1)之间 的小数
改变数据分布形状,变换后的数据有范围,可用于稳定数据

0.2 标准化

把数据的 不改变数据分布形状,均值变为0、标准差变为1 的数
在归一化范围内
改变数据分布形状,变换后的数据没有范围,可用于不稳定数据(多异常值,噪声)

0.3 中心化

把数据的 均值变为0,标准差无要求 的数
不在归一化范围内
不改变数据分布形状,变换后的数据没有范围

特征缩放

Rescalin /min-max scaling/min-max normalization/normalization

在这里插入图片描述

Mean normalization

在这里插入图片描述

Z-score normalization/Standardization

在这里插入图片描述

Scaling to unit length

在这里插入图片描述

1 批归一化(BN)

Batch Normalization

1.1 提出背景

2015,Google,Sergey Ioffe&Christian Szegedy
DNN难训练的原因࿱

  • 1
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值