《SinGAN: Learning a Generative Model from a Single Natural Image》--阅读笔记-ICCV2019

Authors

Tamar Rott Shaham,Tali Dekel,Tomer Michaeli

Motivation

unconditional GANs 对特定类数据集进行训练时,在生成真实、高质量的样本方面取得了显著的成功。

 

然而,提取具有多个对象类的高多样性数据集的分布仍然是一个主要挑战(如imagenet),并且通常需要加入另一个输入信号作为condition,或者为特定任务训练模型(如超分辨率、修复、重定目标)。(该bg我不理解,引用了另一篇博客的)

GAN在最开始提出就是学习图像分布然后生成和训练图像类别相同的图像,那么这就有第一个限制,训练集的类别是具体的(Specific),一些无条件GAN通常都是这样的训练方式,在class-specific的数据集上训练,同时如果类别众多,性能就会出现下降。比如一些生成人脸的GAN用ImageNet训练,生成那些多种多样的类别的图像,效果其实很差的(这方面我做过实验),所以一般要加入其它条件来帮助训练,一般都是指定图像的类别送进网络作为条件(condition)。
另外一个限制就是图像需要很多张。如果我们仅仅在一张图片上训练, 非条件GAN中,目前这样的方法只适用于具体任务,比如超分辨,纹理扩展( texture expansion)。
原文链接:https://blog.csdn.net/qq_34914551/article/details/102812286

 

Novelty

  • 以解决各种图像操作任务,包括从单个图像绘制到图像、编辑、协调(融合?)、超分辨率和动画。

如图所示的用途:

  • 产生高质量的,能保留训练样本原始数据分布,又同时能创造新的configuration和structure的图像
  • 在一个简单的统一学习框架中使用,网络结构简单
  • 只在一张图上训练,不care各种分类类别(这种学习方法很有意思)

Network

G

该方法使用了patch-gan捕获global的properties,用多尺度的结构,从下往上是coarse到fine的过程。生成器的集合为,金字塔形的训练原始数据为,Xn是X的n倍下采样数据,每个Gn用于生成,所有的G和D有这相同的结构,同样的RF。因而有,Zn是噪点。将下一层生成的,与本层的燥点Zn同时送入网络Gn,得到最终该scale的输出,即为:

,通过融合Zn和,最终Gn的表达为是5个conv-block,(i.e.,Conv(3×3)-BatchNorm-LeakyReLU),如图

其它kernel设置的细节如下面文字所示

D

第n个GAN的loss function如下面公式,其实就是分scale进行backprog

,其中 就表示对抗损失,measure了和生成的样本,表示重建loss,为了使得能够产生有噪声图能合成Xn​,,其中是在训练过程中固定的噪点图。当n=N时,(结合图4架构看就了然了)

D的结构和一样,也就是说,RF大小是11X11(i.e., patch size shi 11*11)

使用了WGAN-GP loss,值得注意的是针对整张图,而不是patch的loss。由于是multi scale的,所以batch-size为1

Zn的细节

Result

见原文效果。

 

 

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值