牛啊!2小时复现顶会论文,他的秘诀是——

笔者最近在集中时间学习对抗生成网络(GAN),特别是深度生成先验进行多用途图像修复与处理,需要对图像修复与处理经典论文进行回顾和精读。

将从图像修复与处理的经典之作DGP《Exploiting Deep Generative Prior for Versatile Image Restoration and Manipulation》开始,重启精读之路。

cae4820ec7de4a62ce40f641cec578c1.png

7月14日,算法大咖1小时精讲Gan论文

2e97305d369479c73a19ffbeecb1f091.png

扫码0.1元预约直播

提供代码数据集哈

DGP提出了一种挖掘GAN中图像先验的方式,在多个任务上揭示了GAN作为一种通用图像先验的潜力。

论文提出了同时插值隐变量和生成器的渐变式图像反演方法可以应用于复杂图片的对抗防御,在实验中DGP所展现出的强大的像素间空间关系模拟能力也十分有趣。

9af33746198aced06d762bcb99737a8e.gif

Deep generative prior的图像复原效果

01

深度生成先验

深度图像先验DIP仅依靠输入图像的统计信息,无法应用于需要更一般的图像统计信息的任务,如图像上色和图像编辑。

4460eb8272ccb56610d0c7c29a5b2574.png

我们更感兴趣的是研究一种更通用的图像先验,即在大规模自然图像上训练的GAN生成器用于图像合成。具体来说,是一个基于GAN-inversion的图像重构过程。

在实践中,仅仅通过优化隐向量z难以准确重建ImageNet这样的复杂真实图像。训练GAN的数据集(ImageNet)本身是自然图片中很少的一部分,GAN受限于有限的模型性能和mode collapse,其模拟的图片分布与训练集图片分布也存在鸿沟。

即使存在以上限制,GAN仍然学习了丰富的图片信息,为了利用这些信息并且实现精确重建,我们让生成器online地适应于每张目标图片,即联合优化隐向量z和生成器参数。

234c5463f37bdacdd5e87588d428a00f.png

我们将此新的目标称为深度生成先验(DGP),DGP显著提高了图像重构的效果。设计合适的距离度量和优化策略非常关键,在重建过程中,生成器原始的生成先验被修改了,输出真实自然图像的能力可能会下降。

7月14日,算法大咖1小时精讲Gan论文

c01b051b3c235991d1555dfc1b383358.png

扫码0.1元预约直播

提供代码数据集哈

02

判别器指引的渐进式重建

从 latent space Z 中随机抽取几百个候选的初始 latent code,并选择在度量L下重构效果最好的一个。

在GAN重建中,传统的距离度量方法是 MSE 或 Perceptual loss。优化生成器参数时,将这些传统距离度量用在图像恢复如上色任务中,常常无法准确恢复颜色,并且重建过程中图像会变得模糊,需要设计更好的优化方式来保留生成器的原有信息。

7月14日,算法大咖1小时精讲Gan论文

f37e0b56b3af9c3877554b37df4247d9.png

扫码0.1元预约直播

提供代码数据集哈

我们在该工作中选择使用与生成器对应的判别器来作为距离度量。与Perceptual loss所采用的VGGNet不同,判别器并非在一个第三方的任务上训练,而是在预训练时就与生成器高度耦合,它天然地适用于调整生成器的输出分布。

使用这种基于判别器的距离度量时,重建的过程更加自然和真实,最终颜色恢复的效果也更好。

0e339c8dc526db8804eb688c2f3780e2.png其中D(x, i)代表以x作为输入时判别器第i个block输出的特征

虽然改进的距离度量带来了更好的效果,但是图像复原的结果仍存在非自然痕迹,因为生成器在针对目标图片优化时,浅层参数匹配好图片整体布局之前,深层参数就开始匹配细节纹理了。

bc027d4487c49f5db80c7247db9cb9c2.png

上面的苹果图是几种训练策略的对比,从三行效果可以看出,有的苹果在训练初期没被染上色后期还是没被染上色,我们把这种现象称作“信息滞留”。

对策就是:使用渐进式重建的策略,即在微调生成器时,先优化浅层,再逐渐过渡到深层,让重建过程“先整体后局部”。

与非渐进策略相比,这种渐进策略更好地保留了缺失语义和现有语义之间的一致性。

6bdadd9f6d3f9f3ac4c61b4d77887327.png

7月14日,算法大咖1小时精讲Gan论文

702bcf1842e92da751f5211a38501abe.png

扫码0.1元预约直播

提供代码数据集哈

03

重建结果

使用BigGAN模型,基于ImageNet进行训练,使用ImageNet验证集中的1000张图像进行实验,取每类的第一张,相比于其他方法,DGP取得了非常高的PSNR和SSIM,视觉上的重建误差几乎难以察觉。

b8a9f4147f20a55f0b383a4d1617c955.png

04

实验

因为GAN刻画了自然图像的先验,因此可以完成很多的任务:比如上色、补全、超分辨率等等,还能进行图像处理。下面放一些效果图。

图像上色

使用ResNet50上的分类精度作为定量评估结果, 下列方法的精度分别为 51.5%, 56.2%, 56.0%, 62.8%。

8717fc78687c2eb379cd1e86a98e20a4.png

图像补全

bbfcbec670efaef96859ea5e8af8c671.png

超分辨率

8ac2d34ce911805fab11faa173f73949.png

灵活性

469b06bc825c6559149e0a17ac909bea.png

随机扰动

466a8d4694d6187619f97996f353751c.png

7月14日,算法大咖1小时精讲Gan论文

2063308f79ffc8f863f9a362b8872fa7.png

扫码0.1元预约直播

提供代码数据集哈

总结

GAN作为图像领域最强大的生成式模型之一,学习到了丰富的自然图像流形,可以对自然图像的恢复和编辑带来巨大帮助。

利用好大规模预训练模型的能力是深度学习目前各个领域的流行前沿,可以减少对训练数据的需求,整合相近的研究领域。

未来更强大的生成式模型,将带来更具实际应用价值的图像恢复和编辑应用,有望在更广泛的领域落地

1ef9593ae889595e74d128cfbb9b714a.png

7月14日,算法大咖1小时精讲Gan论文

a7f4a455be132c3904ff89d776547998.png

扫码0.1元预约直播

提供代码数据集哈

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值