Batch Normalization、Instance Normalization和Layer Normalization

Normalization

引入:
  1. 虽然不是所有模型都需要以“独立同分布”为基础,但它可以简化常规机器学习模型的训练、提升机器学习模型的预测能力;
  2. 白化(数据预处理)
    (1)去除特征之间的相关性 —> 独立;
    (2)使得所有特征具有相同的均值和方差 —> 同分布。
  3. Internal Covariate Shift是指源空间和目标空间的条件概率是一致的,但是其边缘概率不同;对于神经网络的各层输出,由于它们经过了层内操作作用,其分布显然与各层对应的输入信号分布不同,而且差异会随着网络深度增大而增大,可是它们所能“指示”的样本标记(label)仍然是不变的,这便符合了covariate shift的定义。由于是对层间信号的分析,也即是“internal”的来由。
归一化Instance NormalizationBatch NormalizationLayer Normalization
引入生成结果主要依赖于某个实例每一个batch的分布不同,会产生internal covarivate shift问题BN易受batch size的影响;且在rnn这种变长网络中不太适用
对象单个样本本身计算每个batch每一层的平均值和方差,对不同样本的同一个通道的特征做归一化计算每一层每一个样本的均值和方差,同一个样本的不同通道做归一化

【补充】内部协变量偏移(Internal Covariate Shift),简单的来说就是输出的分布发生了偏移,和输入的分布不一致;

参考文献:
[1]https://zhuanlan.zhihu.com/p/33173246
[2]https://www.zhihu.com/question/38102762/answer/85238569
[3]https://blog.csdn.net/liuxiao214/article/details/81037416

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值