(八十七):Visual Attention Network

本文提出了一种新的大核注意力(LKA)模块,用于解决卷积神经网络(CNN)和自注意力机制在处理图像时的局限性。LKA在保持自适应性和长距离相关性的同时,避免了图像二维结构的忽视和高分辨率图像处理的高昂复杂度。基于LKA,作者构建了视觉注意力网络(VAN),在图像分类、对象检测和语义分割等多个任务上超越了现有的卷积和变压器主干网络。VAN通过结合局部信息、长距离依赖和通道适应性,实现了高效和高性能的表现。
摘要由CSDN通过智能技术生成

  • 出处:CoRR abs/2202.09741 (2022)
  • 代码:https://github.com/Visual-Attention-Network
  • 题目:Visual Attention Network
  • 主要内容:LKA模块可以考虑提出了一种新的Large Kernel Attention(LKA)模块,以使self-attention的自适应和长距离相关。介绍了一种基于LKA的新的神经网络,即视觉注意力网络(VAN)。

Abstract

虽然最初是为自然语言处理(NLP)任务而设计的,但自我注意机制最近已经席卷了各种计算机视觉领域。然而,图像的二维特性给自我注意在计算机视觉中的应用带来了三个挑战。
(1)将图像作为一维序列处理,忽略其二维结构。
(2)对于高分辨率图像来说,二次复杂度过于昂贵。
(3)只捕捉空间适应性,忽略了信道适应性。

在本文中,我们提出了一种新的大核注意(LKA)模块,在避免上述问题的同时,实现了自我注意的自适应和远程相关性。进一步介绍了一种基于LKA的神经网络,即视觉注意网络(VAN)。虽然非常简单和高效,但在图像分类、目标检测、语义分割、实例分割等广泛的实验中,VA

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Laura_Wangzx

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值