【ICCV2021】Context Reasoning Attention Network for Image Super-Resolution

请添加图片描述

论文:【ICCV2021】Context Reasoning Attention Network for Image Super-Resolution

代码:https://github.com/Ast-363/CRAN (非官方实现)

论文的研究动机是“recent advances in neuroscience show that it is necessary for the neurons to dynamically modulate their functions according to context, which is neglected in most CNN based SR methods ”,因此,作者改进了Xudng Lin在ECCV2020提出的 Context-gated conv (CGConv),提出了 Context guided conv (如下图所示),应用到了超分辨率中。

请添加图片描述

下面重点对Context guided conv 模块进行介绍,这个模块主要包含三个步骤:context information extraction, context descriptor relationship reasoning,和 context reasoning attention convolution.

第一步:context information extraction ,这一步和 CGConv 是完全一样的,就是使用全连接层把输入特征变成 F C ∈ R c i n × e F_C\in\mathbb{R}^{c_{in}\times e} FCRcin×e

请添加图片描述

第二步:context descriptor relationship reasoning ,构建图 G ( F C , R ) G(F_C,R) G(FC,R) ,图的节点是 F C F_C FC,图的边是 R R R,是一个 e × e e \times e e×e的矩阵。应用图卷积得到输出特征 F C ∗ ∈ R c i n × e F^*_C\in\mathbb{R}^{c_{in}\times e} FCRcin×e(和GCConv 相比,这里是主要改进的地方)

请添加图片描述

第二步:context reasoning attention convolution ,这个步骤和之前的 GCConv 也是一样的, F C ∗ F^*_C FC 使用全连接分别得到 F A 1 ∈ R c o u t × k 1 × k 2 F_{A1} \in \mathbb{R}^{c_{out}\times k_1\times k_2} FA1Rcout×k1×k2 F A 2 ∈ R c i n × k 1 × k 2 F_{A2} \in \mathbb{R}^{c_{in}\times k_1\times k_2} FA2Rcin×k1×k2,(起名分别为 channel interaction 和 spatial interaction )。最后,将两者分别沿两个方向复制,接着融合得到 F A ∈ R c i n × c o u t × k 1 × k 2 F_A\in \mathbb{R}^{c_{in}\times c_{out}\times k_1 \times k_2} FARcin×cout×k1×k2 。 这里还使用 sigmoid 函数实现归一化。这样 F A F_A FA 就可以做为卷积核的权重,实现对卷积核的 modulating 。

请添加图片描述

总体来看,第一步和第三步和之前的 GCConv 是差不多完全一样的,只是在第二步中加入了一个图卷积,这也是作者主要改进的地方。

论文的其它部分包括实验还没有仔细看,感兴趣可以阅读作者论文。

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值