10.2 常见的Normalization方法(BN、LN、IN、GN)

本文介绍了深度学习中常见的Normalization方法,包括Batch Normalization (BN)、Layer Normalization (LN)、Instance Normalization (IN)和Group Normalization (GN)。BN解决深度学习中的ICS问题,而LN、IN和GN则各有特点,适应不同的网络结构和应用场景。LN在层内计算均值和方差,IN针对单个输入实例,GN则按组进行归一化。
摘要由CSDN通过智能技术生成

一、为什么要Normalization?

二、常见的Normalization方法(BN、LN、IN、GN)

 

 

 

这节课我们来学习常见的Normalization方法(BN、LN、IN、GN)。

一、为什么要Normalization?

其实这个问题在BN的论文中已经给了答案了,就是因为在深度学习中,出现一个ICS的问题。数据尺度/分布的异常,导致模型训练困难。

 

二、常见的Normalization方法(BN、LN、IN、GN)

这四种Normalization,相同的地方是,都要进行归一化,即加减乘除操作。那他们的不同点在哪里?因为beta和gamma都是超参数,所以不同的地方在于均值和方差的求取方式。

LN : 是在网络层里面找均值和方差。

IN:实例,就是一张图片。主要针对图像生成使用。

GN:分组。

 

1. Layer Normalization

BN不适用于

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值