归一化总结:BN和LN的差别

参考链接:https://blog.csdn.net/qq_37541097/article/details/117653177
https://blog.csdn.net/Strive_For_Future/article/details/115220627

为什么要归一化:

在机器学习和深度学习中,有一个共识:独立同分布的数据可以简化模型的训练以及提升模型的预测能力——这是通过训练数据获得的模型能够在测试集获得好的效果的一个基本保障。也就是说我们在使用机器学习和深度学习的时候,会把数据尽可能的做一个独立同分布的处理,用来加快模型的训练速度和提升模型的性能。

差别:

BN的均值和标准差是在小批量上按维度计算的会考虑到batch上的每一个数据,对一个batch数据的每个channel进行Norm处理,因此在小batch上的效果较差,然而,LN是主要用于NLP领域的,每个词向量的含义不同,若按照整个batch的数据进行归一化会产生较大误差,因此LN是对单个数据的指定维度进行Norm处理与batch无关。

总结:

BN:取不同样本的同一个通道的特征做归一化,逐特征维度归一化;

LN:取的是同一个样本的不同通道做归一化,即整个样本归一化,逐个样本归一化。
在这里插入图片描述

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值