[深度学习从入门到女装]CycleGANs

论文地址:Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks

 

CycleGANs用来解决unpaired的问题,如果是paried问题也就是(x,y)输入的x都有对应的y,我们就可以使用之前的GANs进行生成,但是如果输入的x没有对应的y,就比如风格转换,把一个相机拍的照片转换为梵高、油画等风格,这样就不会存在对应的y可以用来paried学习,所以本文提出了CycleGANs来解决unpaired问题

简单来说就是使用一个生成器G,x为输入图像,得到G(x),我们无法找到一个y来和G(x)界定他们之间分布的loss,因为y我们并没有,所以我们又使用了一个逆映射F,就可以得到一个cycle来用loss逼近F(G(x))=x,这样就可以在没有paried的y情况下,来做到G的生成

Adversarial Loss

对于X到Y的映射定义loss:

对于Y到X的映射定义loss:,与上式类似

 

Cycle Consistency Loss

但是,具有足够大容量的网络可以将输入和输出可以映射到任意随机排列上,因此对于单纯的adversarial loss不能保证可以将单个X映射到Y上,文本因此提出了cycle-consistent loss

比如,称为forward cycle consistency

,称为backward cycle consistency

因此Cycle Consistency Loss为

Full Objective

可以看到本文的model可以训练两个auto-encoders,一个为F\circ G:X\rightarrow X,另一个为G\circ F:Y\rightarrow Y

Network Architecture

使用Perceptual losses for real-time style transfer and super-resolution中的网络结构,两个stride-2的conv,一些residual blocks,两个stride=1/2的fractionally strided conv。在128*128输入的时候使用6个blocks,在256*256或者更高分辨率时使用9个blocks,使用了instance normalization(Instance normalization: The missing ingredient for fast stylization),discriminator networks使用70*70的PatchGANs

Training details

对于adversarial loss使用最小二乘loss代替最大似然估计loss,

像Learning from simulated and unsupervised images through adversarial training中一样使用多张历史生成图片来更新discriminators,本文中使用50张,设置,使用Adam slover batch size=1,learning rate=0.0002,对于前100个epoch learning rate保持不变,对于下100个epoch使用线性减弱rate

 

应用领域

Collection style transfer

Object transfiguration、Season transfer

 

Photo generation from paintings

Photo enhancement

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值