(ENLCA)AAAI2022:Effificient Non-Local Contrastive Attention for Image Super-Resolution(ENLCA))

本文提出了一种新的高效非局部对比注意(ENLCA)方法,用于图像超分辨率(SISR)。ENLCA通过线性化的计算复杂度和对比学习,解决了非局部注意力(NLA)在噪声处理和计算资源上的问题,提高了相关特征的聚合效果。实验表明,ENLCA在SISR任务中显著优于标准NLA和非局部稀疏注意方法。
摘要由CSDN通过智能技术生成

Effificient Non-Local Contrastive Attention for Image Super-Resolution (用于图像超分辨率的有效的非局部对比注意)

AAAI2022

作者
Shunzhou Wang1*, Tianfei Zhou2∗ , Yao Lu1† , Huijun Di1

所属组织
1 Beijing Key Laboratory of Intelligent Information Technology,
School of Computer Science and Technology, Beijing Institute of Technology, China
2 Computer Vision Laboratory, ETH Zurich, Switzerland、

论文地址:https://arxiv.org/abs/2201.03794
项目地址:暂无


面对的问题
Non-Local Attention (NLA) 通过利用自然图像中的内在特征相关性,为单图像超分辨率 (SISR) 带来了显着的改进。然而,NLA 赋予噪声信息很大的权重,并且相对于输入大小消耗二次计算资源,限制了其性能和应用。

解决思路
在本文中,作者提出了一种新颖的高效非局部对比注意 (ENLCA) 来执行远程视觉建模并利用更多相关的非局部特征。具体来说,ENLCA 由两部分组成,Efficient Non-Local Attention (ENLA) 和 Sparse Aggregation。 ENLA采用核方法逼近指数函数,得到线性计算复杂度。对于稀疏聚合,作者将输入乘以放大因子以专注于信息特征,但近似方差呈指数增长。因此,对比学习被应用于进一步分离相关和不相关的特征。

本文的目标是聚合所有重要的相关特征,保持非局部模的稀疏性,并大大降低其计算代价

闪光点

<
  • 5
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值