BN+LN+GN

Normalization是为解决数据间独立同分布问题而提出的,独立指的是去除特征之间的关联性,同分布指的是使所有特征具有相同的均值和方差,Internal Covariate Shift 指的是源空间和目标空间条件概率一致,但边缘概率不一致。Normalization做简单的白化处理,即在数据送入神经元之前对其做平移和伸缩变化,

假设每个Batch的输入为N×C×H×W,其中N代表每个Batch中的样本数,C代表每个样本中的通道数,H代表样本的长,W代表样本的宽。将输入中的参数看做书本,即N代表有书本的数量,C代表书本的页数,H代表书本的长度或行数,W代表书本的宽度或列数。

BN指将每本书对应的页码相加并且求均值,得到了一个平均书,即除以N×H×W,使得每个Batch中的样本都归一化,即减去均值并除以方差,使其分布稳定在均值为0,方差为1。并引入两个参数做线性变化,保留原始输入特征的分布信息。

BN的缺点:对Batchsize大小敏感,若太小无法代表整个数据集的分布;BN适用于CNN,不适用预RNN。

LN指将同一本书所有页码对应的字相加并求均值,得到了一个平均字,即除以C×H×W,独立于Batchsize。同时也引入两个参数做线性变化,保留原始输入特征的分布信息。

LN可应用于RNN中,在每个时间片中做归一化。LN针对单个训练样本进行,不依赖于其他数据。

IN指在一个样本的一个通道内做归一化。

GN指将每本书分成好几个章节,每个章节包含许多页,然后对每个章节做LN。当G=1,GN=LN;当G=C,GN=IN;GN比LN更加灵活,比IN拥有更多通道信息。

补充:BN对不同样本的同一特征做归一化,而LN对同一样本的不同特征做归一化;BN比LN更优,因为不同数据同一特征得到的归一化特征更不易丢失。

在Python中,归一化GN(Group Normalization)可以通过以下方式实现: 1. 首先,进行初步归一化,根据引用可知,这一步骤通过对输入进行标准化来减少内部协变量偏移。省略了具体的变换过程。 2. 接下来,通过使用γ和β进行进一步的变换。γ和β是可学习的参数,可以调整标准化后的输入数据。具体的变换公式为:results = γ * x_normalized + β。 3. 最后,根据引用的示例代码,可以通过定义一个函数来实现GN的归一化。在这个函数中,输入x的维度为[B, C, H, W],其中B表示batch size,C表示通道数,H和W表示高度和宽度。函数通过计算均值和方差来标准化输入,然后使用γ和β来进行进一步的变换。最后返回归一化后的结果results。 总结起来,归一化GN是一种在神经网络中常用的归一化方法,可以在Python中通过计算均值和方差,使用γ和β进行变换来实现。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [关于归一化BN IN LN GN相关梳理](https://blog.csdn.net/weixin_44492824/article/details/124025689)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [python 归一化总结:BatchNormalization、LayerNormalization、InstanceNorm、GroupNorm、SwitchableNorm](https://blog.csdn.net/weixin_43905052/article/details/123367112)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值