Residual Feature Aggregation Network for Image Super-Resolution

近期在跑自己的论文模型所以论文看的比较少,博客也没怎么更,。。。
这篇论文是今年cvpr的一篇超分论文,提出了传统的残差网络并未充分利用各层残差信息,因此该文章提出了一种将各层残差信息经过跳转链接直接传到后层的网络结构(这里想吐槽一下。。。这跟密集残差结构真的很像。。。)
在这里插入图片描述
总体网络结构也很简单
在这里插入图片描述
另外文章里提出了一种增强的空间注意力机制,并把注意力放在上文中的RB块中,该注意力机制首先通过1*1conv进行降维,后通过步长卷积(其实就是一个步长为2的卷积。。。此处论文中并未说明步长卷积的卷积核大小,代码也还未公布)增大感受野,相对于步长为1的同等大小的卷积核来说,在进行下一步池化的过程中,步长为2的卷积核确实可以为池化过程提供更大的感受野(可以理解为用步长为2的卷积核卷积图像得到的特征图相对于步长为1的卷积核卷积出的特征图更小更稀疏,因此在池化时相对的起到了增大感受野的目的),另外此处是为了使注意力能够更好的注意到图像的整体信息,因此才要增大感受野范围,后通过一系列卷积非线性映射,最后上采样回原图大小形成空间注意力图,通过sigmoid归一化后与原图相乘(这种注意力这几年也不少了。。所以感觉创新性也比较低。。)。
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值