飞桨论文复现之《LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS》

该博客复现了《LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS》论文,介绍了如何通过扩大GAN的规模、采用特定训练技巧和正则化方案来增强生成图像的真实感。实验表明,增加模型参数和批量大小显著提高了性能,如IS评分从52.52提升到99.31。此外,还探讨了生成器的稳定性问题和不同分辨率下的模型效果。
摘要由CSDN通过智能技术生成

飞桨论文复现之《LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS》

课程地址:https://aistudio.baidu.com/aistudio/education/group/info/1340
这篇论文其实可以算是GAN的入门论文,把GAN实验重演了一遍。

效果

在这里插入图片描述

要点

主要描述为了增强Gan生成图与真实图片的三个方向:

  1. GAN的规模
  2. “裁剪技巧”
  3. 牺牲一定程度的稳定性

论文结论

通过训练2到4倍的参数和8倍的批量大小(batch_size)的模型来与当时的普通模型进行了比较,证明了GAN可以从batch_size和参数的放大中显着受益。
具体方式是采用了两个简单/通用的构架结构,可以通过修改来达到可伸缩性,并使用正则化方案,最终明显提高了性能。
在这里插入图片描述
可以看到,8倍的batch_size,明显提高了性能。batch_size从256提高8倍到2048,IS评价指标(inception score)从52.52提高到76.85。batch_size为2048时,channel数(平方正比于参数量)从64提高到96时,IS从76.85提升到92.98 。
在后面使用了一些其它诸如Shared/Skip-z/Ortho等技术措施后,IS最高提高到了99.31 。当然因为这篇论文是2019年的,且前面提到的都是比较常规的调参方法,所以性能提升有限,最高结果依然离人类实际图片的IS评价233分相差很远。
针对生成器的不稳定性,作者也进行了全面的解析和实验。
最终结论:加大模型规模可以提升模型效果
不同分辨率下模型结果评估
在这里插入图片描述
可以看到将训练集的尺寸从128提高到256,IS从98.8提高到144,还是相当可观的。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值