Multi-scale Attention Network for Single Image Super-Resolution(CVPR 2024)

一、解决的问题

第一:卷积神经网络(ConvNets)在图像超分辨率(SR)任务中的表现不如基于Transformer的模型。具体如下,尽管ConvNets在高层次任务中可以与Transformer竞争,但在低层次的图像超分辨率任务中,其性能通常不如Transformer;现有的ConvNet架构(如VAN)虽然引入了大核注意力(LKA)以扩大感受野,但仍存在一些问题,如膨胀卷积可能导致阻塞伪影,且固定大小的LKA无法充分利用不同范围的像素信息。

第二:图像超分辨率任务的本质难题。低分辨率(LR)图像对应无数可能的高分辨率(HR)图像,导致难以找到LR和HR像素之间的正确相关性。

二、提出的办法

针对ConvNets在图像超分辨率任务中表现不如Transformer的问题,提出了多尺度大核注意力(MLKA)门控空间注意力单元(GSAU)两种方法。通过结合多尺度、门控机制和空间注意力,这些方法显著增强了ConvNets的模型表示能力,并成功应用于构建多尺度注意力网络(MAN),从而在图像超分辨率任务中实现了与Transformer相媲美的性能。

第三:实验细节

第一:消融实验

①MAN组分的消融②多尺度和分解类型(LKA/MLKA)消融实验研究③不同FFN的消融实验

第二:对比实验 

①Comparisons with classical image SR②Comparisons with tiny/light image SR③Comparisons with sota transformers

  • 7
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值