RCAN论文总结

Image Super-Resolution Using Very Deep Residual Channel Attention Networks

论文解决的问题:

  • 更深层次的图像SR网络更难训练
  • 低分辨率的输入和特征包含丰富的低频信息,这些信息在信道间被平等对待,从而阻碍了CNNs的表征能力

论文使用的主要方法:

  1. 提出RCAN网络

    在这里插入图片描述

    1. shallow feature extraction(与之前的模型EDSR、RDN一样):
      只有一个卷积层(Conv)来提取浅特征

    2. residual in residual (RIR) deep feature extraction:
      它的输出作为深层特征

    3. upscale module(与之前的模型EDSR、RDN一样)
      several choices to serve as upscale modules:
      1. 反褶积层(也称为转置卷积)
      2. nearest-neighbor upsampling + convolution
      3. ESPCN

    4. reconstruction part
      (与之前的模型EDSR、RDN一样)

  2. loss function

    • l 1   l o s s l_{1}\ loss l1 loss or l 2   l o s s l_{2}\ loss l2 loss or perceptual loss or adversarial loss
    • optimized by using stochastic gradient descent
  3. 提出RIR(residual in residual)结构
    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Frk4N40R-1576138599497)(../screenshot 2019-12-11-18-11-31.png)]

    1. consists of several residual groups(RG) with long skip connections(LSC)
    2. Each residual group contains some residual channel attention blocks(RCAB) with short skip connections(SSC)
    3. low-frequency information can be bypassed through identity-based skip connection
  4. 提出一种channel attention mechanism

    • [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-tXmRsEAv-1576138599497)(../screenshot/2019-12-11-20-34-44.png)]
      • 提出了一种信道注意机制,通过考虑信道间的相互依赖关系,自适应地重新调整信道特征
      • 问题:如何为每个不同的频道产生不同的注意是关键的一步。这里我们主要关注点:
        1. LR空间中的信息具有丰富的低频成分和有价值的高频成分
        2. Conv层的每个filer都与一个局部感受野一起工作,使得卷积后的输出无法利用局部区域以外的上下文信息
      • 方法:通过使用全局平均池,我们将信道方面的全局空间信息转化为信道描述符:
        1. Input: X = [ x 1 , ⋯   , x c , ⋯   , x C ] X=[x_{1},\cdots,x_{c},\cdots,x_{C}] X=[x1,,xc,,xC]( C C C feature maps with size of H × W H\times W H×W)
        2. 通过空间维数 H × W H\times W H×W来缩小 X X X,可以得到信道统计量 z ∈ R C z\in \Reals^{C} zRC
          z c = H G P ( x c ) = 1 H × W ∑ i = 1 H ∑ j = 1 W x c ( i , j ) z_{c}=H_{GP}(x_{c})=\frac{1}{H\times W}\sum\limits_{i=1}^{H}\sum\limits_{j=1}^{W}x_{c}(i,j) zc=HGP(xc)=H×W1i=1Hj=1Wxc(i,j)
        3. 这种信道统计可以看作是局部描述符的集合,其统计有助于表示整个图像
        4. 为了通过全局平均池从聚合的信息中完全捕获信道依赖关系,我们引入了一个门机制two criteria:1.可以学习在信道间的非线性的交互。2.由于可以强调多通道特性,而不是one-hot激活,因此必须学习一种非互斥关系。
          • s = f ( W U δ ( W D z ) ) s=f(W_{U}\delta(W_{D}z)) s=f(WUδ(WDz))
          • f ( ⋅ ) f(\cdot) f():sigmoid gating
          • δ ( ⋅ ) \delta(\cdot) δ():ReLU function
          • W D W_{D} WD是一个Conv层的权值集,它的作用是按压缩比r进行信道上的下采样
          • 经ReLU激活后,低纬信号按比例r通过信道上的上采样层,其权值设置为 W U W_{U} WU
    • [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Qq4hFmyq-1576138599497)(../screenshot/2019-12-11-20-35-32.png)]
      • the residual component is mainly obtained by two stacked Conv layers
      • 我们发现MDSR(no rescaling operation)和EDSR(constant rescaling 0.1,没有考虑通道之间的相互依赖关系)中使用的RBs可以看作是我们RCAB的特例
  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值