各种Normalization(BN,LN,GN,IN,SN,Spectral Normalization)

一,归一化层,目前主要有几种,Batch Normalization(2015年)、Layer Normalization(2016年)、Instance Normalization(2017年)、Group Normalization(2018年)、Switchable Normalization(2018年);Spectral Normalization(2018)

二,将输入的图像shape记为[N, C, H, W],这几个方法主要的区别就是在,执行的维度差异。
batchNorm是在batch上,对NHW做归一化,对小batchsize效果不好;一般用于CNN,DNN。
layerNorm在通道方向上,对CHW归一化,主要对RNN作用明显;
instanceNorm在图像像素上,对HW做归一化,用在风格化迁移;强调个性。
GroupNorm将channel分组,然后再做归一化;一般用于CNN,DNN。与batchNorm类似。优点:不受batch影响。
SwitchableNorm是将BN、LN、IN结合,赋予权重,让网络自己去学习归一化层应该使用什么方法。
Spectral Normalization 谱归一化,让判别器具备Lipschitz连续。主要用于GAN网络,解决判别器训练越好,生成器梯度消失越严重的问题。Spectral normalization for generative adversarial network” (以下简称 Spectral Norm) 使用一种更优雅的方式使得判别器 D 满足利普希茨连续性,限制了函数变化的剧烈程度,从而使模型更稳定。

在这里插入图片描述

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值