BN和LN

本文详细解释了批量归一化(Batch Normalization, BN)和层归一化(Layer Normalization, LN)的概念。BN主要对同一批次的不同样本在同一通道上进行标准化,而LN则针对单个样本的所有通道进行标准化。BN有助于训练过程的稳定性和加速,而LN更适用于循环神经网络。理解这两种技术对于优化深度学习模型的性能至关重要。
摘要由CSDN通过智能技术生成

1:BN,对于一个batch中的样本,取不同样本同一通道的数据进行标准化。理解下图,N表示batch大小为N(也就是说这个batch包含N个样本,样本也可以理解为图片),C表示每个样本的通道数,比如常用的一张图片有RGB三个通道,H*W就是样本的大小,也就是图片的高和宽,图中可以理解为将图片flatten了。所以,如图,BN就是对同一batch下不同样本,同一通道做标准化

图和内容均参考自:深入理解Batch Normalization原理与作用 | 电子创新网 Imgtec 社区 (eetrend.com)

2:LN,理解了BN,那么LN就好理解多了,就是对同一个图的不同通道做标准化,再简单点说,就是对一张图做标准化:

可以按照上面所说,参考图自行理解

图来自:(2条消息) 层标准化详解(Layer Normalization)_十里清风的博客-CSDN博客_layer normalization 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值