AniGAN: Style-Guided Generative Adversarial Networks for Unsupervised Anime Face Generation

AniGAN是首个针对Style-Guided Face-to-Anime Translation的任务研究,它使用生成对抗网络进行无监督学习,能根据参考动漫人物图片对目标人物进行风格迁移。模型包括内容编码器、风格编码器和解码器,采用自适应堆栈卷积块和精细风格转移块来保持照片的全局结构和动漫的风格。此外,双分支鉴别器有助于减少生成结果中的扭曲和瑕疵。实验表明,AniGAN在selfie2anime和face2anime数据集上表现出色。
摘要由CSDN通过智能技术生成

AniGAN: Style-Guided Generative Adversarial Networks for Unsupervised Anime Face Generation论文阅读

Github:https://github.com/bing-li-ai/AniGAN

摘要:
实现效果如图,即根据一张参考动漫人物图片,对目标人物进行风格迁移。
在这里插入图片描述

介绍

Style-Guided Face-to-Anime Translation(StyleFAT)任务

根据参考动画脸的样式将照片转换为动画脸。
难点:动画脸一般具有很大的眼睛、较小的鼻子和嘴,这和人脸完全不同。

我们提出了AniGAN来解决StyleFAT任务,它基于非监督学习,使用不匹配样本进行训练。
主要贡献:
1)这是StyleFAT的第一个研究。
2)generator可以同时将照片的颜色和纹理风格和局部面部风格转化为提供的参考动漫脸风格,同时保留照片的全局结构信息。
3)discriminator学习domain-specific distribution和动画脸与照片脸的cross-domain shared distributions避免生成照片的明显扭曲,从而生成高质量图片。
4)新的normalization函数帮助提高动画人物的视觉质量。

模型

记源领域和目标领域分别为X和Y,取x∈X,y∈Y,AniGAN学习从x到y的映射函数G,并生成anime-face图片x’。x’需要完整保留x的全局信息(比如,脸的姿势)和y的风格(比如颜色纹理),同时x’必须生成动画风格的眼睛、头发。

Generator

如下图所示,为AniGAN中Generator的结构,它包含一个content encoder——Ec, style encode

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值