阅读 Meta-SR:A Magnification-Arbitrary Network for Super-Resolution

Meta- sr:用于超分辨率的放大任意网络

1.motivation

        一般的SR都是针对特定scale训练一个network(X2, X3, X4),这与实际需求不相符。该文研究的是超分辨率的放大任意scale的网络。

2.structure

 

 

     b部分是一个学习feature的过程,用到了RDB,讲白了一个Dense block变式。通过这个较深的network从LR提取feature map。然后文章的novelty是c部分。一般sr upsample 插值、转置卷积,边插值边转置卷积等等。filter只能学到一个scale的weights。

3.novelty

      文章加入了一个FC结构去学习不同尺度特征向量v(i,j)的向量的卷积表达。

      

i,j表示HR中的i,j,r代表scale,之所以加一个1/r,因为完备性考虑。例如,如果我们想用比例因子2和4对图像进行upsample,ISR 2上的像素(i,j)将与ISR 4上的像素(2i,2j)具有相同的权重和相同的投影坐标。这意味着isr2是isr2的子像。这会限制性能。

       这样子的话,一张SR的图像HxW。则会有HxW个v(i,j)。如网络结构图中的HxWx3。

      这样一个特征矩阵,每一个v(i,j)(length = 3),要生成一个(inC,outC,k,k)的卷积核,原文中inC是64,outC是1(灰度图像),k=3。这非常困难,所以采用的256个hidden neurons 。试出来效果最好。

       生成卷积核了以后,计算i,j这个点的像素,就用这么一个对应的卷积核去预测。

4.补充

v(i,j)为什么那个样子

        v(i,j)是一种偏移——SR图像的i,j因为scale产生的相对偏移。举例来说r=2,那么v(1,0)=(0.5,0,0.5)代表SR在LR中i方向的相对偏移是0.5.。如下图,r=2,SR为1的坐标实际上对于LR是他的0.5处分数坐标。

       LR中的0,决定了SR中的0,1两个位置(1-D)。同理r=1.5

底下是sr,上面是lr。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值