各种Normalization:BatchNorm、LayerNorm、InstanceNorm、GroupNorm、SwitchableNorm、AttentiveNorm

本文详细介绍了Normalization的几种方法,包括BatchNorm、LayerNorm、InstanceNorm、GroupNorm、SwitchableNorm和AttentiveNorm。文章探讨了它们的原理、应用场景和优缺点,特别指出BatchNorm对小batchsize的局限性以及LayerNorm在RNN中的优势。此外,还提到了SwitchableNorm和AttentiveNorm作为适应不同任务的新型归一化技术。
摘要由CSDN通过智能技术生成

Index

主要参考了这篇博客BatchNormalization、LayerNormalization、InstanceNorm、GroupNorm、SwitchableNorm总结,另外添加了AttentiveNorm。

前言

论文链接

1、Batch Normalization:https://arxiv.org/pdf/1502.03167.pdf
2、Layer Normalizaiton:https://arxiv.org/pdf/1607.06450v1.pdf
3、Instance Normalization:https://arxiv.org/pdf/1607.08022.pdf
4、Group Normalization:https://arxiv.org/pdf/1803.08494.pdf
5、Switchable Normalization:https://arxiv.org/pdf/1806.10779.pdf
6、AttentiveNorm:https://arxiv.org/pdf/1908.01259.pdf

介绍

归一化层,目前主要有这几个方法,Batch Normalization(2015年)、Layer Normalization(2016年)、Instance Normalization(2017年)、Group Normalization(2018年)、Switchable Normalization(2018年),Attentive Normalization(2019年);

将输入的图像shape记为[N, C, H, W],这几个方法主要的区别就是在,

  • BatchNorm是在batch上,对NHW做归一化,对小batchsize效果不好;
  • LayerNorm在通道方向上࿰
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值