【图像超分】论文精读:Activating More Pixels in Image Super-Resolution Transformer(HAT)

第一次来请先看这篇文章:【超分辨率(Super-Resolution)】关于【超分辨率重建】专栏的相关说明,包含专栏简介、专栏亮点、适配人群、相关说明、阅读顺序、超分理解、实现流程、研究方向、论文代码数据集汇总等)


前言

论文题目:Activating More Pixels in Image Super-Resolution Transformer —— 激活图像超分辨率变压器中的更多像素

论文地址:SRFlow: Learning the Super-Resolution Space with Normalizing Flow

论文源码:https://github.com/XPixelGroup/HAT

CVPR 2023!基于transformer的超分方法的进一步提升!HAT!

Abstract

基于transformer的方法在图像超分辨率等低级视觉任务中表现出了令人印象深刻的性能。然而,我们发现这些网络只能通过归因分析来利用有限的输入信息空间范围。这意味着 Transformer 的潜力在现有网络中仍未得到充分利用。为了激活更多的输入像素以获得更好的重建,我们提出了一种新的混合注意转换器(HAT)。它结合了通道注意力和基于窗口的自注意力方案,从而利用

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

十小大

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值