ICCV2017论文“Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks” 阅读笔记

ICCV2017论文“Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks” 阅读笔记

题目:Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks
作者:Jun-Yan Zhu, Taesung Park等,Berkeley AI Research (BAIR) laboratory
项目地址:https://junyanz.github.io/CycleGAN/

简介

  • 此文章的提出主要是为了解决一个问题—— image-to-image translation中一对一的训练数据较难获得。一般的训练,生成图像总是要与某个gound truth完全相等(pair),而这种goundtruth在某些场合中很难获取(例如风格迁移)。因此,作者希望在不借助paired example情况下,实现图像转换。
  • 基于unpaired example的图像转换可以如此描述:一种服从分布X的图像,通过深度网络,使其服从Y分布。常用的方法是GAN网络,即训练一个网络G,使得生成的图像 y=G(x) 与原有的 y 分布相同,难以区别出来。然而,这种训练可能会导致网络出错,使很多输入对应到同一个输出,即输入输出没有一一对应。
    此处输入图片的描述
  • 作者认为这种图像转换应该遵循循环一致性(cycle consistent):如果有一种转换G能使X -> Y,和F: Y -> X,那么X和Y应该是互相转置的关系。作者训练了两个网络G和F,设置一个循环一致性损失,使得 F(G(x))x G(F(y))y ,将这个损失和对抗损失联合起来,就实现了完整的unpaired image-to-image translation。
  • 本文提出的模型叫做CycleGAN

模型设置

  • 上面说到了,CycleGAN需要训练两个网络
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值