标题:Spatially-invariant Style-codes Controlled Makeup Transfer
本文可以视作PSGAN的改良版,PSGAN中融合妆容特征和身份特征的时候用的是基于landmark的attention,而这里作者提取了基于区域的妆容style code,然后用StyleGAN的方式来融合特征。
模型看起来也和PSGAN非常相似,唯一的区别就是将PSGAN中的MDNet换成了PSEnc。
作者先将人脸通过语义分割模型分为眼睛,嘴巴和脸部三个部分,然后分别输入映射模块来获得三个风格向量,之后通过叉乘来融合后输入MLP来将调整特征在隐空间中的分布,进而通过Adain来与FIEnc提取出的身份特征融合,最终得到妆后的人脸。
使用的loss也和PSGAN大同小异,即对抗损失,全局感知损失,局部感知损失(将分割后的部件输入VGG提取特征),循环一致性损失,像素直方图损失。