【超分辨率】Laplacian Pyramid Networks(LapSRN)

期刊论文:
https://arxiv.org/abs/1710.01992
会议论文CVPR2017:
http://vllab.ucmerced.edu/wlai24/LapSRN/papers/cvpr17_LapSRN.pdf
项目主页:http://vllab.ucmerced.edu/wlai24/LapSRN/

看了眼作者,Jia-Bin Huang是传统算法领域(呃,自从深度学习出来后,我就将之前的算法都算传统方法了)的超分辨率学习的专家大牛。
然而有意思的是,这篇论文结合了传统算法laplacian pyramid 和 CNN网络,这也给我们这些研究者一些思路,可以通过结合经典算法和深度学习作为insight。打个比方,最近KaiMing大神指导的一篇文章:《Non-local Neural Networks 》则将非局部算法融入到深度学习中。
值得惋惜的是,好多人上来就直接研究深度学习,对自己领域的传统算法知之甚少。

LapSRN有两个版本(CVPR版本和期刊版本)。废话不多说,直接进入主题。下面是对期刊论文的LapSRN做简要理解。

Insight

  1. 本文是通过将低分辨率图像直接作为输入到网络中,通过逐级放大,在减少计算量的同时,也有效的提高了精度
  2. 提出了一种鲁棒的loss function, robust Charbonnier loss function.
  3. 对各个金字塔的level之间和每个level之内,通过recursive进行参数共享

这里写图片描述

Detail:

网络结构:

一、Network architecture
1. Feature extraction branch
通过stack convolution来获取非线性特征映射
2. Image reconstruction branch
在每一个pyramid level,最后加上deconv来提升图像的2x分辨率

参数共享
本文网络在两个地方进行参数共享,减少了参数量
1. 在各个pyramid level之间参数共享, 称之为Recursive block

因为laplacian pyramid是在x2的基础上得到x4,由于各个level中的结构相似性,因此在各个level,参数得以共享
形式如下:
这里写图片描述

2. 每个pyramid level之中参数共享

inspired DRCN and DRRN,作者在每个pyramid level中进行参数共享,如下图
这里写图片描述


整个网络深度为:depth = (D x R + 1) x L + 2
也因此会出现了两个超参数 D,R

二、Local residual learning
为了解决梯度弥散问题,作者在各个recursive block上采取了local residual learning。在本文中,作者探究了三种方法来stabilize训练过程:
1. No skip connection
该种方法在之后的实验中称之为: LapSRN(NS)
2. Distinct-source skip connection
该种方法在之后的实验中称之为: LapSRN(DS)
3. Shared-source skip connection
该种方法在之后的实验中称之为: LapSRN(SS)
这里写图片描述

实验证明LapSRN(ss)更work一些

三、Loss function

本文认为相同的LR patch 可能有多种corresponding HR patches,而L2范数并不能capture the underlying multi-modal distributions of HR patches. 因此L2范数重建出的图像往往过平滑

本文提出了一种抗噪性强的loss functions:
这里写图片描述

Experiments:

D,R关系, D为每个pyramid中的conv数,R为循环次数

这里写图片描述

各个超分辨率算法参数细节:
这里写图片描述

各个超分辨率算法实验结果:
这里写图片描述

  • 6
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
拉普拉斯金字塔是一种紧凑的图像编码方法,用于对图像进行分析和压缩。它是由一系列分辨率逐渐降低的图像组成的,其中每个图像都是通过对前一个图像进行高斯模糊和子采样得到的。拉普拉斯金字塔可以看作是原始图像与上一级高斯模糊图像之间的差异图像。这些差异图像包含了原始图像中高频部分的细节信息。 通过使用拉普拉斯金字塔,我们可以将原始图像分解为不同的层级,每个层级都包含图像的特定频率范围。较高层级的差异图像包含了原始图像的细节和边缘等高频信息,而较低层级的差异图像则包含了图像的低频信息。由于每个层级的差异图像都是通过前一个层级与其高斯模糊图像之间的差异计算得到的,因此每个差异图像都可以看作是高频信息的一种表示。 利用拉普拉斯金字塔作为图像编码,可以实现图像的压缩和重建。通过保留拉普拉斯金字塔中的某些层级,可以选择性地保留图像的特定频率范围。由于拉普拉斯金字塔中的每个层级都相对较小,因此可以有效地存储和传输图像。而重建时,只需通过对每个层级的差异图像进行上采样和叠加,即可还原原始图像。 总之,拉普拉斯金字塔作为一种紧凑的图像编码方法,可以将图像分解为不同频率范围的层级,以实现图像的压缩和重建。它能够捕捉图像的细节信息,同时减小图像的存储和传输开销。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值