BatchNorm与LayerNorm

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档


一、Norm是什么?

不管是BatchNorm还是LayerNorm,核心在于Norm,Norm即Normalization(归一化),归一化是一种数据处理方式,能将数据经过处理后限制在某个固定范围内(一般[0,1]),将所有数据统一到一个量级下。数据归一化后,寻求最优解的过程会变得平缓,可以更快速的收敛到最优解。

二、BatchNorm是什么?

batch是深度学习中常见概念,指的是每次送进模型进行训练的数据,每个batch训练完会更新一次参数,每个batch包含的样本数量称为batchsize(1000个样本,batchsize10,一个epoch需要迭代100次,即会更新100次参数)。
BatchNorm是对一个batchsize内的每个特征做归一化,比如输入特征为2 200 100 256(batchsize h w c),其中一个特征归一化即对2 200 100 1的数据进行归一化。
BatchNorm在CV领域应用广泛!

三、LayerNorm是什么?

LayerNorm是对每个样本的所有特征做归一化。比如输入特征为2 200 100 256(batchsize h w c),每个样本的所有特征归一化即对1 200 100 256的数据进行归一化。
LayerNorm在NLP领域应用广泛!


参考

https://blog.csdn.net/weixin_49346755/article/details/127366789
https://blog.csdn.net/pipisorry/article/details/109192443
https://www.zhihu.com/search?type=content&q=batchnorm

  • 5
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值