GAN学习历程之CycleGAN论文笔记

这篇博客介绍了CycleGAN的基本原理和应用,它解决了在缺乏成对训练数据的情况下进行图像迁移的问题。通过引入循环一致性损失,确保了映射函数G和F的双向可逆性,从而实现无配对的图像转换。文章还讨论了对抗损失和CycleGAN的网络架构及训练细节。
摘要由CSDN通过智能技术生成

GAN目前发展的很快,成果也很多,从GAN->Pix2pix->CycleGAN
本来是准备看一篇19年一月份ICLR发表的conference paper INSTAGAN,发现这篇论文是在cycleGAN的基础上的改进,于是先阅读这篇论文。
CycleGAN
论文地址:https://arxiv.org/pdf/1703.10593.pdf
代码地址:https://github.com/junyanz/pytorch-CycleGAN-and-pix2pix

Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks
**Abstract**
背景介绍:
       图片迁移的目标是使用成对的图片训练数据集来学习输入图片和输出图片之间的映射。
问题:
       However,对于许多项目没有成对的训练数据集。
本文方法:
       我们的目标是学习映射G: X→Y,使用对抗损失无法区分G(X)和Y的分布。所以我们又提出了成对的方向映射F:Y→X,并介绍了cycle consistency 损失来增强使得F(G(X))≈X。
 改进:
 1.Qualitatiue results
 2.Quantitative results
**1.Introduction**
       在这篇论文中,我们提出了一种方法,抓住一个数据集的特殊特征,并弄清楚这些特征如何转换到其他的图片数据集中,在成对训练集缺失的情况下。这个问题可以广泛地被称作图片迁移,可以转换图片到一个场景到另一个场景。
不禁思考:和Pix2pix的区别?
问题提出的过程:
       **问题提出:**在计算机视觉中,图片处理等应用产生了图片成对出现的图片迁移系统。然而,获取成对的训练数据很困难。因此我们寻找一种在没有成对输入-输出例子的情况下可以在区域之间学习迁移的算法。
       **想法提出的思考:**我们可以训练一个映射G: X→Y,因此输出

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值