GAN目前发展的很快,成果也很多,从GAN->Pix2pix->CycleGAN
本来是准备看一篇19年一月份ICLR发表的conference paper INSTAGAN,发现这篇论文是在cycleGAN的基础上的改进,于是先阅读这篇论文。
CycleGAN
论文地址:https://arxiv.org/pdf/1703.10593.pdf
代码地址:https://github.com/junyanz/pytorch-CycleGAN-and-pix2pix
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks
**Abstract**
背景介绍:
图片迁移的目标是使用成对的图片训练数据集来学习输入图片和输出图片之间的映射。
问题:
However,对于许多项目没有成对的训练数据集。
本文方法:
我们的目标是学习映射G: X→Y,使用对抗损失无法区分G(X)和Y的分布。所以我们又提出了成对的方向映射F:Y→X,并介绍了cycle consistency 损失来增强使得F(G(X))≈X。
改进:
1.Qualitatiue results
2.Quantitative results
**1.Introduction**
在这篇论文中,我们提出了一种方法,抓住一个数据集的特殊特征,并弄清楚这些特征如何转换到其他的图片数据集中,在成对训练集缺失的情况下。这个问题可以广泛地被称作图片迁移,可以转换图片到一个场景到另一个场景。
不禁思考:和Pix2pix的区别?
问题提出的过程:
**问题提出:**在计算机视觉中,图片处理等应用产生了图片成对出现的图片迁移系统。然而,获取成对的训练数据很困难。因此我们寻找一种在没有成对输入-输出例子的情况下可以在区域之间学习迁移的算法。
**想法提出的思考:**我们可以训练一个映射G: X→Y,因此输出