详说Normalization(Batch Normalization,Layer Normalization,Instance Normalization,Group Normalization)

本文详细介绍了Normalization的几种方法,包括Batch Normalization、Layer Normalization、Weight Normalization、Instance Normalization和Group Normalization。Batch Normalization通过减小内部协变量转移加速网络训练,而Layer Normalization适用于RNN和小批量场景。Weight Normalization针对权重进行归一化,Instance Normalization在风格迁移任务中表现出色,而Group Normalization解决了Batch Normalization在小批量时的问题。
摘要由CSDN通过智能技术生成

详说各种 Normalization

Batch Normalization 是 Sergey 等人于2015年在 Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift 中提出的一种归一化方法。

在开始讨论之前, 我们需要先探讨一个问题, 对于深度神经网络而言, 什么样的输入是一个好的输入,或者说什么样的输入可以又快又好的训练模型? 通常我们希望输入的数据能够满足独立同分布,并且我们希望数据能分布在激活函数梯度较大的范围之内。可是在深度神经网络中,底层的参数更新会对高层的输入分布产生很大的影响,也就是说即使一开始我们的数据满足了要求,可是随着网络的传递,数据也会发生变化,不能满足要求。作者称这个现象叫 internal covariate shift。为了解决这个问题,作者提出了 Batch Normalization。

1. 什么是 Batch Normalization?

直接借用原文中的一副图来说明 Batch Normalization 的过程。
其中 x i x_i xi 为输入数据, μ β \mu_\beta μβ 为对一个 batch 的输入数据取平均值, σ β 2 \sigma^2_\beta σ

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值