AniGAN: Style-Guided Generative Adversarial Networks for Unsupervised Anime Face Generation论文阅读
Github:https://github.com/bing-li-ai/AniGAN
摘要:
实现效果如图,即根据一张参考动漫人物图片,对目标人物进行风格迁移。
介绍
Style-Guided Face-to-Anime Translation(StyleFAT)任务
根据参考动画脸的样式将照片转换为动画脸。
难点:动画脸一般具有很大的眼睛、较小的鼻子和嘴,这和人脸完全不同。
我们提出了AniGAN来解决StyleFAT任务,它基于非监督学习,使用不匹配样本进行训练。
主要贡献:
1)这是StyleFAT的第一个研究。
2)generator可以同时将照片的颜色和纹理风格和局部面部风格转化为提供的参考动漫脸风格,同时保留照片的全局结构信息。
3)discriminator学习domain-specific distribution和动画脸与照片脸的cross-domain shared distributions避免生成照片的明显扭曲,从而生成高质量图片。
4)新的normalization函数帮助提高动画人物的视觉质量。
模型
记源领域和目标领域分别为X和Y,取x∈X,y∈Y,AniGAN学习从x到y的映射函数G,并生成anime-face图片x’。x’需要完整保留x的全局信息(比如,脸的姿势)和y的风格(比如颜色纹理),同时x’必须生成动画风格的眼睛、头发。
Generator
如下图所示,为AniGAN中Generator的结构,它包含一个content encoder——Ec, style encode