015_SSSSS_ Arbitrary Style Transfer in Real-time with Adaptive Instance Normalization

Arbitrary Style Transfer in Real-time with Adaptive Instance Normalization

这篇笔记总结一下各种Normalization,不仅是AdaIN

1. Batch Normalization(BN)

对于输入数据 x ∈ R N × C × H × W x \in R^{N \times C \times H \times W} xRN×C×H×W, BN对于每一个独立的特征维度的均值和方差进行归一化。

在这里插入图片描述

其中 γ , β ∈ R C \gamma,\beta \in R^C γ,βRC 是学习到的仿射参数, μ ( x ) , σ ( x ) ∈ R C \mu(x),\sigma(x) \in R^C μ(x),σ(x)RC 是数据的均值和方差。

在这里插入图片描述

BN在训练的时候对batch的大小要求比较高,一般需要较大的batch。而在inference的时候,需要用训练时每个batch的均值和方差(mini-batch statistics),再求期望作为推断时用到的均值和方差(popular statistics)。

2. Instance Normalization(IN)

IN与BN的主要区别在于均值和方差只在每个Instance内求得,而不在整个batch内求。

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

3. Conditional Instance Normalization(CIN)

CIN在IN的基础上加入了条件,其 γ \gamma γ β \beta β 不再是只学习到一个,而是根据增加的条件输入不同,得到 s s s 组不同的值,对应于不同风格的输入。

在这里插入图片描述

4. Adaptive Instance Normalization(AdaIN)

AdaIN不再通过学习得到 γ \gamma γ, β \beta β 而是用输入的条件数据 y y y 来替代。

在这里插入图片描述

5. Layer Normalization(LN)

与BN的区别在于,BN是在Batch维度做的归一化,而LN则是在Layer上。
L N ( x ) = γ x − μ ( x ) σ ( x ) + β μ n ( x ) = 1 H W C ∑ n = 1 H ∑ n = 1 W ∑ n = 1 C x n c h w σ n ( x ) = 1 H W C ∑ n = 1 H ∑ n = 1 W ∑ n = 1 C ( x n c h w − μ n ( x ) ) 2 + ϵ LN(x) = \gamma \frac{x-\mu(x)}{\sigma(x)} + \beta \\ \mu_n(x) = \frac{1}{HWC} \sum_{n=1}^H\sum_{n=1}^W\sum_{n=1}^C x_{nchw} \\ \sigma_n(x) = \sqrt{\frac{1}{HWC} \sum_{n=1}^H\sum_{n=1}^W\sum_{n=1}^C (x_{nchw} - \mu_n(x))^2 + \epsilon} LN(x)=γσ(x)xμ(x)+βμn(x)=HWC1n=1Hn=1Wn=1Cxnchwσn(x)=HWC1n=1Hn=1Wn=1C(xnchwμn(x))2+ϵ

6. Group Normalization(GN)

GN与LN的区别在于,LN在所有的特征维度C上做归一化,但是GN则是在部分维度上做归一化。

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值