CVPR2020超分辨率重建论文阅读笔记

  • 为什么要进行超分辨率重建:
    1.视觉效果不吸引人
    2.影响下游方法使用,如分割等
    3.电子显示产品分辨率提高,需要更高分辨率的图像
  • 超分辨率重建问题面临难点和存在问题如下:
    1.病态问题:一对多,同样的LR图像对应无数解
    2.MSE指标可能导致结果平滑,且没有关注纹理关系信息
    3.下采样方式常为预设,不能够适配现实情况
    4.成对低高分辨率图像难以获得

一. PULSE:

  • 文章 PLUSE:Self-Supervised Photo Upsampling via Latent Space Exploration of Generative Models
  • 链接 https://link.zhihu.com/?target=https%3A//arxiv.org/abs/2003.03808
  • 代码 github.com/adamian98/pu
  • 贡献:
    1.一个新的超分辨率重建的处理范式。不同于以往对所得的多种重建HR结果平均处理获得最终结果的做法,而是令产生的HR图像能够降采样获得正确的输入LR图像。
    2.一种解决超分辨率重建任务的新方法:无监督GAN。
    3.高维高斯先验下隐空间探索的一种原始方法。
  • 方法:
    1.损失函数上的改进
    将损失函数由 ∫ M ∩ R ∣ ∣ I H R − I S R ∣ ∣ p p d P ( I H R ) \int_{M\cap R}||I_{HR}-I_{SR}||^p_pdP(I_{HR}) MRIHRISRppdP(IHR),即令生成的 I S R I_{SR} ISR与标签信息 I H R I_{HR} IHR整体上更接近,在整个可行隐空间上进行积分
    改为: ∣ ∣ D S ( I S R ) − I L R ∣ ∣ p < ϵ ||DS(I_{SR})-I_{LR}||_p<\epsilon DS(ISR)ILRp<ϵ,即令生成后的数据下采样结果更接近低分辨率结果,以避免平均导致的平滑问题。
    2.隐空间探索
    采用,GAN网络来生成图像近似M中图像,为了让结果更像,对生成模型的隐变量添加统一的先验约束:
    L ′ = d S d − 1 L'=\sqrt dS^{d-1} L=d Sd1

二. Dual Regression Networks:

  • 文章 Closed-Loop Matters: Dual Regression Networks for Single Image Super-Resolution

  • 链接 https://link.zhihu.com/?target=https%3A//arxiv.org/abs/2003.07018

  • 代码 https://link.zhihu.com/?target=https%3A//github.com/guoyongcs/DRN

  • 贡献:
    1.一个对偶网络框架
    2.研究了一个更一般的超分辨率案例,能够更好适应现实数据
    3.分别在成对与不成对数据上进行试验

  • 方法
    1.成对数据的对偶算法
    P:低分辨到高分辨映射
    D:高分辨到低分辨映射
    S P S_P SP:成对的训练数据,x低,y高
    损失函数: ∑ i = 1 N L P ( P ( x i ) , y i ) + λ L D ( D ( P ( x i ) ) , x i ) \sum^N_{i=1} L_P(P(x_i),y_i)+\lambda L_D(D(P(x_i)),x_i) i=1NLP(P(xi),yi)+λLD(D(P(xi)),xi)
    1.不成对数据的对偶算法
    在这里插入图片描述

  • 网络结构
    在这里插入图片描述

三. MZSR:

  • 文章 Meta-Transfer Learning for Zero-Shot Super-Resolution
  • 链接 https://link.zhihu.com/?target=https%3A//arxiv.org/abs/2002.12213
  • 代码 https://link.zhihu.com/?target=https%3A//github.com/JWSoh/MZSR
  • 贡献:
    1.一种基于元学习的训练方案,学习了一个有效初始权重并用于在无监督设置下快速适应新任务
    2.充分利用了外部样本与内部样本
    3.快速,灵活,轻量级,在元测试时间无监督,适合在现实中应用
  • 核心思想:为零样本方法ZSSR与元学习算法MAML的结合,故在此先对背景知识进行介绍。

1.ZSSR

由论文 “Zero-Shot” Super-Resolution using Deep Internal Learning 提出,发表于CVPR2017,是第一个提出的基于CNN网络的无监督SR算法。

  • 立足点:网络通常只在测试样本与训练样本情况或环境相似的的情况下表现好。
  • 贡献:
    1.是第一个提出的基于CNN网络的无监督SR算法
    2.它可以处理非理想的成像条件,以及各种各样的图像和数据类型(即使第一次遇到)。
    3.它不需要预训练,并且可以使用少量的计算资源来运行。
    4.理论上适应任何大小与纵横比的图像
    5.在测试时适应已知的未知的成像条件
  • 核心思想:“the internal entropy of patches inside a single image is much smaller than the external entropy of patches in a general collection of natural images”,即充分利用单幅图像内有规律性质的重复图块来实现SR图片重构。
  • 网络结构
    使用简单的全卷积网络,8个隐藏层,没个隐层层64个通道,使用Relu作为激活函数,网络的输入图片会被插值到输出图片大小,网络只学习插值的LR和相应的HR parent,使用L1损失函数,Adam优化器,初始学习率是0.001。
    在这里插入图片描述
  • 方法
    1.预先训练一个外部网络
    2.对测试图像进行扩充,下采样作为输入,进行训练。最后将获得的网络用于测试图像

2.MAML

  • 核心思想:从与任务不同却相似的大量样本中学习一个普遍的规律,达到一个平衡点,从而在应用于样本数少的任务能够快速的获得一个较好的模型。
    在这里插入图片描述

  • 通过在初始参数的基础上进行一或多步的梯度调整,来达到仅用少量数据就能快速适应新task的目的

  • 算法流程:
    在这里插入图片描述

回归正题,MZSR方法步骤如下:
1.大量成对样本预训练。即提供了先验信息,又能尽量改善MAML的不稳定性。
2.元迁移学习。选取不同的下采样方法制作成对的HR-LR数据集。(本文中采用各相同和各相异高斯核)
在这里插入图片描述

3.原测试。对测试图像进行不同下采样,进行少步骤的更新,获得结果。
在这里插入图片描述

个人感觉,MZSR方法与ZZSR方法的区别主要在于中间插入了元学习的梯度更新步骤,以此减少了最后单样本测试时所需的梯度更新次数,也是本文的亮点。

  • 网络结构如下:
    在这里插入图片描述

参考

1.https://blog.csdn.net/weixin_43840215/article/details/89327201
2.https://zhuanlan.zhihu.com/p/149322505

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值