Meta-SR: A Magnification-Arbitrary Network for Super-Resolution阅读笔记

文章发表于CVPR 2019
论文下载链接:http://arxiv.org/abs/1903.00875
论文源代码部分,作者目前还没有公开。

目前的SISR网络大多解决的问题针对单一放大尺寸问题,这样在实际应用中,SR具有一定的局限性。作者受到meta-learning启发,本文提出了Mera-SR,可解决任意放大尺寸的图像超分辨率问题,这样使得SISR可以具有更多的实际应用。

论文的整体思路很清晰新颖。

Meta-SR网络整体结构

Meta-SR由两部分模块组成:the Feature Learning Module and the Meta-Upscale Module,整个Meta-SR结构如下图所示:
在这里插入图片描述

Feature Learning Module

Feature Learning Module(特征学习模块),当前绝大数的SR网络都可以选作特征学习模块,文中选用的state-of-the-art的SISR网络RDN。

Meta-Upscale Module

Meta-Upscale Module(元上采样模块),这部分工作是本文的核心工作和创新点。该模块是一个网络,可以动态预测任一放大尺寸的过滤器权重,Our Meta-Upscale Module takes this coordinate-related and scale-related vector as in- put and predicts the weights for the filters.

对于Meta-Upscale Module,主要由3部分组成:

1.Location Projection(HR-LR像素位置映射)

在这里插入图片描述

2.Weight Prediction(权重预测),使用一特定网络作为权重预测网络,Meta-SR结构图©部分,2个FC层,1个Relu激活层。
权重预测网络:
在这里插入图片描述

权重预测网络的input:

在这里插入图片描述

3.Feature Mapping(特征映射)
通过以上两个步骤,SR图片中的像素值通过如下公式计算:
在这里插入图片描述

整个Meta-Upscale Module的算法如下:

在这里插入图片描述

实验部分

由于缺少类似相关工作,作者在实验部分定义了很多baseline。

网络训练使用的数据集是DIV2K。

测试集是Set14,B100,Manga109和DIV2K。在Y通道上通过比较PSNR和SSIM值来验证实验效果。

loss用的是L1 loss,batch是16,size是50×50,训练的scale factors以0.1的步长从1到4训练,服从均匀分布。

batch里面的每个图都是一样的scale factor。Meta-SR是从头开始训练的,没有预训练。

实验硬件环境:Tesla P40 with Intel Xeon E5-2670v3@2.30GHz

在这里插入图片描述在这里插入图片描述
通过上述结果,相比于Feature Learning Module部分耗时,Weight Prediction Module的运行时间是可以忽略不计的。

在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值