ESRGAN

Enhanced Super-Resolution Generative Adversarial Networks https://arxiv.org/pdf/1809.00219.pdf                   code: https://github.com/xinntao/ESRGAN ECCV2018

在SRGAN的升级之处:

1、Residual-in-Residual Dense Block (RDDB) 
residual scaling 和 smaller initialization:见论文和code
2、判别器: Relativistic average GAN (RaGAN):judge “whether one image is more realistic than the other”

3、improved perceptual loss:VGG在激活前的feature

4、further:网络权重的插值

补充:什么是Relativistic average GAN (RaGAN):https://zhuanlan.zhihu.com/p/40403886

percpecture index是什么 和percpecture loss的关系:,percpecture是第三部分的VGG

 

1、Residual-in-Residual Dense Block (RDDB) 

文章用了两套生成器,第一套是16 residual blocks

第二套是23 RRDB blocks

residual scaling(EDSR里面也有)
smaller initialization(initial parameter variance becomes smaller更容易训练)
 

2、 Relativistic Discriminator

 
 
损失函数:
最后Lg设置为
 
λ = 5 × 10^ 3
η = 1 × 10^ 2
code:
 
 
 
 
 
作为对比,SRGAN的损失函数:
 

Ld=

Lg=

 

3、improved perceptual loss

激活后太稀疏,大多数都没有被激活。

VGG采用的是ReLU激活函数,说明特征图里面很多是负的。

4、Network Interpolation

融合PSNR-oriented 的fidelity 和 GAN的perceptual quality。

α设置为0.2

注意,是网络参数的reweight,而不是两个网络最后结果的图像进行像素的reweight,实验表明 效果⑧行

code: 后期手动进行调整测试

net_PSNR = torch.load(net_PSNR_path)
net_ESRGAN = torch.load(net_ESRGAN_path)
net_interp = OrderedDict()

print('Interpolating with alpha = ', alpha)

for k, v_PSNR in net_PSNR.items():
    v_ESRGAN = net_ESRGAN[k]
    net_interp[k] = (1 - alpha) * v_PSNR + alpha * v_ESRGAN

torch.save(net_interp, net_interp_path)

 

5、训练过程:只做了x4

cropped HR patch is 128 × 128:大图语义信息丰富

②训练PSNR-oriented model: L1loss, lr=2*10^-4, 200000 iter 减半   ?没说总共多少epoch

③训练GAN lr=1×104 and halved at [50k, 100k, 200k, 300k] iter

 

6、消融实验/选α的效果实验

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值