Image-to-Image Translation with Conditional Adversarial Networks
Phillip Isola, Jun-Yan Zhu, Tinghui Zhou, Alexei A. Efros
Introduction
任务:image-to-image translation(translating one possible representation of a scene into another, given sufficient training data)
现有方法:CNN,但是仍要求手工设计合适的loss
局限:单纯想让输出图像与ground truth尽量接近而设计 L2 L 2 loss,会使生成的图像模糊
直接让GAN进行学习生成真实图像就可以了,针对image translation的问题,本文提出了conditional GAN(cGAN): condition on an input image and generate a corresponding output image
Method
生成器:使用了skip connection的U-net,输入一张边缘图像 x x 和随机噪声 ,输出生成图像 y