TediGAN: Text-Guided Diverse Face Image Generation and Manipulation论文阅读
创新点:
- 针对人脸的图片生成和修改。
- 模型由styleGAN inversion(根据预训练的StyleGAN将图片映射到一个latent space)、visual-linguistic similarity learning(将文本和图片映射到common embedding space来计算相似度)和instance-level optimization(确保修改后人脸的identity不会发生改变)组成。
- 最后生成的图片像素高达1024x1024.
- 提出了新的数据集Multi-Modal CelebA-HQ,它包含人脸图片和相应的语义分割图、草图和文本描述。
TediGAN
TediGAN的整体思路是:首先使用StyleGAN inversion模块推理出一张图片对应在W space的向量,接着,使用Visual-Linguistic Similarity Learning训练text encoder,然后就按照正常的方式训练就可以了。
StyleGAN inversion
传统的GAN是通过一个随机采样的向量z生成图片x的,inversion顾名思义,是从x推理出z。一个经典的inversion思路就是引入一个额外的encoder——Ev,通过它对Generator根据向量zs生成的图片x再编码,使其映射到zs附