Instance Normalization vs. Batch Normalization

需要用到 instance normalization,记录之。本文内容完全来自 论文 Instance Normalization:The Missing Ingredient for Fast Stylization
首先, x ∈ R T × C × W × H x \in \mathbb{R}^{T\times C\times W\times H} xRT×C×W×H x x x T T T 张 图像中的任意一张,i.e.任意一个 tensor。记 x t i j k x_{tijk} xtijk 为第 t i j k tijk tijk 个元素,其中 j , k j,k j,k 对应图像的 空间维度(宽度和高度), t t t 是图像的索引, C C C 对应每张图像的通道数。

Batch normalization 是这样的:
y t i j k = x t i j k − μ i σ i 2 + ϵ , u i = 1 H W T ∑ t = 1 T ∑ l = 1 W ∑ m = 1 H x t i j k , σ i 2 = 1 H W T ∑ t = 1 T ∑ l = 1 W ∑ m = 1 H ( x t i j k − m u i ) 2 y_{tijk}=\frac{x_{tijk}-\mu_{i}}{\sqrt{\sigma_{i}^{2}+\epsilon}}, \quad u_{i}=\frac{1}{HWT}\sum_{t=1}^{T}\sum_{l=1}^{W}\sum_{m=1}^{H}x_{tijk},\quad \sigma_{i}^{2}=\frac{1}{HWT}\sum_{t=1}^{T}\sum_{l=1}^{W}\sum_{m=1}^{H}{({x_{tijk}-mu_{i}})^2} ytijk=σi2+ϵ xtijkμi,ui=HWT1t=1Tl=1Wm=1Hxtijk,σi2=HWT1t=1Tl=1Wm=1H(xtijkmui)2

Instance Normalization 是这样的:
y t i j k = x t i j k − μ i σ i 2 + ϵ , u t i = 1 H W ∑ l = 1 W ∑ m = 1 H x t i j k , σ t i 2 = 1 H W ∑ l = 1 W ∑ m = 1 H ( x t i j k − m u i ) 2 y_{tijk}=\frac{x_{tijk}-\mu_{i}}{\sqrt{\sigma_{i}^{2}+\epsilon}}, \quad u_{ti}=\frac{1}{HW}\sum_{l=1}^{W}\sum_{m=1}^{H}x_{tijk},\quad \sigma_{ti}^{2}=\frac{1}{HW}\sum_{l=1}^{W}\sum_{m=1}^{H}{({x_{tijk}-mu_{i}})^2} ytijk=σi2+ϵ xtijkμi,uti=HW1l=1Wm=1Hxtijk,σti2=HW1l=1Wm=1H(xtijkmui)2

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

培之

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值