CVPR2017: SRResNet(SRGAN): Photo-Realistic Single Image Super-Resolution Using a Generative Adversar

首先看一下这篇文章的摘要

尽管利用CNN做图像超分辨在速度和精度上都有了突破,然后关键的问题在于做高倍超分辨的时候恢复精细的纹理很有挑战。当前的工作基本利用MSE做损失函数,但是产生的结果经常缺失高频细节,感知效果不好。本文首次提出利用生成对抗网络做高倍率超分辨,提出利用内容损失(perceptual loss) 和对抗损失(adversarial loss).

 

网络结构:

其中:

SRResNet:就是只用生成器,损失函数是MSE loss或者VGG loss

SRGAN:用了生成器和判别器,损失函数用了perceptual loss,adversarial loss

 

损失函数:

定义了感知损失函数(Perceptual loss function)来训练生成器:它是由内容损失和对抗损失的加权和。

内容损失(content loss):

(1) MSE

(2) 基于VGG

对抗损失(adversarial loss):

实验结果:

以下是用不同的content loss做的试验结果:

其中,

SRGAN-MSE表示对抗网络中content loss只用MSE

SRGAN-VGG22表示(i=2, j=2)表示定义在low-level特征图上的loss

 SRGAN-VGG54表示(i = 5, j = 4)表示定义在high-level特征图上的loss。

SRResNet-MSE表示只用生成器,没有判别器(即不用adversarial loss),生成器的损失函数为MSE,简记为SRResNet

SRResNet-VGG22表示只用生成器,没有判别器(即不用adversarial loss),生成器的损失函数为VGG low-level特征图上的loss。

 

从试验结果可以看出,SRResNet的PSNR最高,而SRGAN的看着更真实。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值