前言
近几年人脸属性迁移的课题不再是单纯地做跨域迁移,还要考虑迁移后的多样性(mutil-modal),因此这个方向开始跟风格迁移相结合。结合我最近看过的几篇论文,发现它们都使用了同一个零部件——AdaIN,而且截止文本发布时间,据谷歌学术显示,该方法的文献被引用量达到517次,说明该方法受到了研究者们一定的关注。因此我觉得有必要记录一下这个思路的起点,以便以后查阅。
AdaIN
文献全称:Arbitrary Style Transfer in Real-time with Adaptive Instance Normalization
文献出处:[C]. international conference on computer vision, 2017: 1510-1519.
数据集: MS-COCO、WikiArt
论文贡献(亮点)
- 提出了一种自适应实例归一化(AdaIN)层。
实验效果图
其中红框内为该方法的实验效果图。
模型框架图
回顾IN与CIN
Instance Normailization
假设输入图像的4D tensor 为: x ∈ R N × C × H × W x\in {\Bbb R}^{N×C×H×W} x∈RN×C×H×W,IN会将每个通道的feature map的均值和标准差进行归一化:
I N ( x ) = γ ( x − μ ( x ) σ ( x ) ) + β IN(x)= \gamma(\frac {x-\mu(x)}{\sigma(x)})+\beta IN(x)=γ(σ(x)x−μ(x))+β 其中 γ \gamma γ、 β \beta β是可学习的仿射参数; μ ( x ) \mu(x) μ(x)、 σ ( x ) \sigma(x) σ(x)分别表示均值和标准差,在空间维度上计算得到,独立于通道和批次。
μ n c ( x ) = 1 H W ∑ h = 1 H ∑ w = 1 W x n c h w \mu_{nc}(x)=\frac {1}{HW}\sum_{h=1}^{H}\sum_{w=1}^Wx_{_{nchw}} μnc(x)=HW1h=1∑H