[paper]Group Normalization

Group Normalization(GN)由Kaiming He和Yuxin Wu在2018年提出,旨在解决Batch Normalization(BN)在小batch size下性能下降的问题。BN依赖于batch size,而在目标检测、分割等任务中,batch size通常很小。GN通过将通道分组进行归一化,提供了一种与batch size无关的解决方案,从而在各种任务中保持稳定性能。
摘要由CSDN通过智能技术生成

Group Normalization

Group Normalization 在18年由Kaiming He和 Yuxin Wu提出,其目的是为了解决BN存在的缺陷,在某些情况下用GN替代BN。

BN存在的问题

BN全名Batch Normalization,在15年提出后,广泛应用于深度学习领域,其作用主要在于提升训练速度和收敛速度。BN以batch为维度进行归一化。

看了BN之后的理解详见

BN存在的问题是它依赖于batch size的大小。通常需要的batch size大小是32。一个小的batch size会导致其性能下降。但是对于目标检测,分割,视频识别等任务,由于内存的限制,通常batch size的大小为1-2。具体性能差距详见下图:
还在路上,稍等...

另外,Batch Normalization是在batch这个维度上Normalization,但是这个维度并不是固定不变的,比如训练和测试时一般不一样,一般都是训练的时候在训练集上通过滑动平均预先计算好平均-mean,和方差-variance参数,在测试的时候,不在计算这些值,而是直接调用这些预计算好的来用,但是,当训练数据和测试数据分布有差别是时,训练机上预计算好的数据并不能代表测试数据,这就导致在训练&#

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值