MyDLNote-Attention
文章平均质量分 91
Phoenixtree_DongZhao
深度学习 图像处理
展开
-
[All-in-one] AdaIR:自适应全合一图像恢复通过频率挖掘和调制
在图像采集过程中,经常会引入各种形式的退化,包括噪声、模糊、雾气和雨水等。这些退化通常源于相机的固有局限或不利的环境条件。为了从退化的图像版本中恢复出清晰的图像,已经开发出了许多专门的恢复方法,每种方法都针对特定类型的退化。最近,一体化算法因其能够在单个模型中处理不同类型的退化而无需输入退化类型的先验信息,从而受到了广泛关注。然而,这些方法纯粹在空间域中操作,并未深入研究不同退化类型所固有的不同频率变化。为了填补这一空白,提出了一种基于频率挖掘和调制的自适应一体化图像恢复网络。原创 2024-08-18 19:26:34 · 708 阅读 · 0 评论 -
TPAMI 2024 基于Transformer视觉分割研究进展
视觉分割寻求将图像、视频帧或点云分割成多个片段或组。这项技术在现实世界中有许多应用,如自动驾驶、图像编辑、机器人传感和医学分析。在过去的十年中,基于深度学习的方法在这一领域取得了显著的进步。最近,Transformer,一种基于自关注的神经网络,最初是为自然语言处理而设计的,在各种视觉处理任务中大大超过了以前的卷积或循环方法。具体来说,视觉Transformer为各种分割任务提供了强大,统一,甚至更简单的解决方案。本调查提供了基于Transformer的视觉分割的全面概述,总结了最近的进展。原创 2024-08-16 17:25:24 · 1052 阅读 · 0 评论 -
[ACM MM 2024] GRFormer: 轻量级单张图像超分辨率分组残差自注意力
GitHub - sisrformer/GRFormer: ACM MM 2024https://arxiv.org/pdf/2408.07484Previous works have shown that reducing parameter overhead and computations for transformer-based single image super-resolution (SISR) models (e.g., SwinIR) usually leads to a reducti原创 2024-08-15 21:14:27 · 592 阅读 · 0 评论 -
Mamba 中隐藏注意力
Ameen Ali ∗ , Itamar Zimerman ∗ , and Lior WolfSchool of Computer Science, Tel Aviv UniversityThe Mamba layer offers an efficient selective state space model (SSM) that is highly effective in modeling multiple domains, including NLP, long-range sequence pr原创 2024-08-10 11:22:51 · 597 阅读 · 0 评论 -
CAS-ViT: 高效移动应用的卷积加性自注意Vision Transformer
Vision Transformer(ViTs)是一种在神经网络领域取得了革命性进展的模型,它通过标记混合器(token mixer)强大的全局上下文能力,实现了对图像分类、目标检测、实例分割和语义分割等多个视觉任务的高效处理。然而,在资源受限场景和移动设备等实时应用中,成对的标记亲和力(token affinity)和复杂的矩阵运算限制了ViTs的部署。CATM模块用于实现高效的自注意力;:定义了一种新的加性相似性函数,该函数通过直接对Query(Q)和Key(K)的上下文分数求和来计算相似度,即。原创 2024-08-09 10:20:58 · 1095 阅读 · 0 评论 -
MambaST:用于高效行人检测的即插即用的跨光谱时空融合器
本研究利用最新进展中状态空间模型(Mamba),并提出了全新的多头分层修补和聚合(MHHPA)结构,在RGB图像和热图像中提取细粒度和粗粒度信息。此外,在小规模行人检测方面也取得了优异成果。在MambaST中,引入了一种创新的多头分层补丁聚集模块(MHHPA),旨在从不同层次上提取跨光谱时空特征。通过对真实世界多光谱行人检测基准KAIST进行实验,并对各种参数选择进行详细评估和消融研究,实验结果表明,在行人检测性能和效率方面有所改善(例如与基于Transformer方法相比需要更少数量级 的 模型参数)。原创 2024-08-05 14:28:46 · 519 阅读 · 0 评论 -
MHSSMamba:高光谱图像分类的多头空间光谱Mamba
MHSSMamba提出了一种名为多头空间光谱Mamba的方法,用于高光谱图像分类。该方法通过增强光谱标记和应用多头自注意力机制来捕获复杂的光谱带与空间位置之间的关系,从而在高光谱图像分类任务中表现出色。相较于传统的Mamba模型,该方法不仅提升了计算效率并捕获了长距离依赖关系,还能处理HSI中丰富的光谱信息以及高维和序列数据。在帕维亚大学、休斯顿大学、萨利纳斯和武汉龙口数据集上进行实验验证时,MHSSMamba展现出优秀的分类准确率分别为97.62%、96.92%、96.85% 和 99.49%。原创 2024-08-05 14:19:55 · 230 阅读 · 0 评论 -
无监督去雨论文(一):DerainCycleGAN: Rain Attentive CycleGAN for Single ImageDeraining and Rainmaking
本文提出了无监督注意引导下的雨条纹提取器。并构建了接近真实场景的雨图像数据集。原创 2022-06-07 06:09:10 · 2291 阅读 · 1 评论 -
又一个轻量级 ViT:Lite Vision Transformer with Enhanced Self-Attention
Lite Vision Transformer with Enhanced Self-Attentionhttps://arxiv.org/pdf/2112.10809.pdfAbstractDespite the impressive representation capacity of vision transformer models, current light-weight vision transformer models still suffer from inconsist.原创 2021-12-26 18:02:15 · 2329 阅读 · 0 评论 -
自注意力和 CNN 的结合 ACmix : On the Integration of Self-Attention and Convolution
本文首先证明了一个传统的核大小为 k x k 的卷积可以分解为 k^2 个单独的卷积,然后进行移位和求和操作。然后,将自注意模块中的 query、key 和 value 的投影解释为多个 1x1 卷积,然后计算注意力权重和值的聚合。因此,这两个模块的第一阶段包含类似的操作。与第二阶段相比,第一阶段的计算复杂度占主导地位。这种观察自然地导致了这两个看起来截然不同的范式的优雅集成,也就是说,混合模型 ACmix可以同时享受自注意和卷积的好处,同时与纯卷积或自注意对应的模型相比,具有最小的计算开销。原创 2021-12-26 08:56:58 · 5905 阅读 · 0 评论 -
论文速读:FAIR 最新 ViT 模型 改进多尺度 ViT --- Improved Multiscale Vision Transformers
本文研究了多尺度 Vision Transformers (MViT) 作为一个统一的体系结构,进行图像和视频分类,以及目标检测。本文提出了一个改进的 MViT 版本,它包含了分解的相对位置 embeddings 和残差池化(residual pooling)连接。原创 2021-12-22 11:22:21 · 3812 阅读 · 0 评论 -
论文速读:Axial-DeepLab: Stand-Alone Axial-Attention for Panoptic Segmentation
本文试图将二维自注意分解为两个一维自注意。这降低了计算复杂度,并允许在更大甚至全局区域内执行注意力。同时,本文也提出了位置敏感的自注意设计。结合这两种方法可以得到位置敏感轴向注意层,这是一种新型的构建块,可以将其叠加形成用于图像分类和密集预测的轴向注意模型。原创 2021-12-22 05:10:21 · 1983 阅读 · 0 评论 -
[NeurIPS 2021] TokenLearner:自适应学习 token 个数和位置 - What Can 8 Learned Tokens Do for Images and Videos?
本文介绍了一种新的视觉表征学习,它依赖于少量自适应学习的 tokens,适用于图像和视频的理解任务。原创 2021-12-16 20:22:18 · 2652 阅读 · 0 评论 -
轻量级 Vision Transformer - MobileViT
MobileViT: Light-weight, General-purpose, and Mobile-friendly Vision TransformerSachin Mehta Apple Mohammad RastegariAppleAbstractLight-weight convolutional neural networks (CNNs) are the de-factofor mobile vision task...原创 2021-10-14 14:43:20 · 3207 阅读 · 1 评论 -
论文阅读:ResMLP: Feedforward networks for image classification with data-efficient training
ResMLP: Feedforward networks for image classification with data-efficient trainingAbstractWe present ResMLP, an architecture built entirely upon multi-layer perceptrons for image classification.It is a simple residual network that alternates (i) a原创 2021-10-13 11:51:39 · 1519 阅读 · 0 评论 -
优于 ViT 和 MLP-Mixer 的全局滤波器:Global Filter Networks for Image Classification [NeurIPS 2021]
Global Filter Networks for Image Classification[pdf] [project] [github]AbstractRecent advances in self-attention and pure multi-layer perceptrons (MLP) models for vision have shown great potential in achieving promising performance with fewer .原创 2021-10-12 16:48:14 · 4145 阅读 · 0 评论 -
一个挑战 ViT,MLP-Mixer 的新模型 ConvMixer:Patches Are All You Need? [Under Review ICLR 2022]
Convolutions Attention MLPs Patches are All Your Need?[OpenReview] [GitHub]本文看点:1. 本文原文非常短,只有 4 页多一点,整个模型也很简单,但它 挑战了 ViT 有效性的原因。2. 总结了最近特别火的 ViT,MLP-Mixer,ResMLP 等新构架之所以效果很好的共性。特斯拉 AI 高级总监 Andrej Karpathy 在推特上感叹道:我被新的 ConvMixer 架构震撼了。【(包括下原创 2021-10-09 11:14:28 · 2347 阅读 · 0 评论 -
MyDLNote-Transformer: Swin Transformer, 使用移位窗口的分层 Vision Transformer
Swin Transformer: Hierarchical Vision Transformer using Shifted Windowshttps://arxiv.org/pdf/2103.14030.pdfCode is available at https:// github.com/microsoft/Swin-Transformer.AbstractThis paper presents a new vision Transformer, called Swin Tra原创 2021-07-07 07:15:32 · 1347 阅读 · 2 评论 -
MyDLNote-Transformer : Pyramid Vision Transformer 一个无卷积的密集预测通用Backbone
Pyramid Vision Transformer: A Versatile Backbone for Dense Prediction without Convolutionspaperhttps://arxiv.org/pdf/2102.12122.pdf Code is available at https://github.com/whai362/PVT Note:ImprovedPyramid Vision Transformer, PVTv2: Improved Baseli...原创 2021-07-05 19:29:48 · 673 阅读 · 1 评论 -
MyDLNote-Transformer: 局部和全局的 Transformer - Transformer in Transformer
Transformer in Transformerhttps://arxiv.org/pdf/2103.00112v1.pdfhttps://github.com/NZ99/transformer_in_transformer_flaxhttps://github.com/huawei-noah/noah-research/tree/ master/TNTAbstractTransformer is a type of self-attention-based neural原创 2021-07-04 14:19:52 · 1549 阅读 · 0 评论 -
MyDLNote-Transformer: 语义分割 Segmenter: Transformer for Semantic Segmentation
Segmenter: Transformer for Semantic Segmentation原创 2021-07-01 22:04:38 · 1708 阅读 · 1 评论 -
MyDLNote-Transformer(for Low-Level): Uformer: U 型 Transformer 图像修复
论文阅读之 - 用 Transformer 做图像修复Uformer: A General U-Shaped Transformerfor Image Restorationhttps://arxiv.org/pdf/2106.03106v1.pdfhttps://github.com/ZhendongWang6/UformerAbstractIn this paper, we present Uformer, an effective and efficient Transfor.原创 2021-06-20 08:08:25 · 1876 阅读 · 0 评论 -
最新 Visual Transformer 论文速览 (Attention Free Transformer,CeiT,DynamicViT)
1.When Vision Transformers Outperform ResNets without Pretraining or Strong Data Augmentations原创 2021-06-10 21:28:37 · 2083 阅读 · 1 评论 -
推荐必读 Vision Transformer 论文集
1. A Survey on Visual Transformer 【30 Jan 2021】原创 2021-06-07 21:58:31 · 785 阅读 · 0 评论 -
CVPR 2021 Visual Transformer 论文合集(附20篇推荐必读ViT论文)
CVPR 2021 视觉Transformer论文大盘点(43篇)AmusiCVer1周前点击下方卡片,关注“CVer”公众号AI/CV重磅干货,第一时间送达CVer一个专注侃侃计算机视觉方向的公众号。计算机视觉、图像处理、机器学习、深度学习、C/C++、Python、诗和远方等。198篇原创内容公众号作者:Amusi | 来源:CVer前言从2020下半年开始,特别是2021上半年,Visual Transformer的研究热点达到了前所未有...原创 2021-06-07 19:35:41 · 4819 阅读 · 0 评论 -
MyDLNote-Detection: DETR : End-to-End Object Detection with Transformers
End-to-End Object Detection with Transformers[paper] https://arxiv.org/pdf/2005.12872.pdf[github] https://github.com/facebookresearch/detrAbstractWe present a new method that views object detection as a direct set prediction problem.本文做了啥:提出.原创 2020-06-16 18:53:24 · 1059 阅读 · 0 评论 -
MyDLNote - Attention: [2020 CVPR] Exploring Self-attention for Image Recognition
MyDLNote - Attention: [2020 CVPR] Exploring Self-attention for Image Recognition[PAPER]Exploring Self-attention for Image RecognitionAbstract Recent work has shown that self-attention can...原创 2020-05-08 18:00:54 · 2965 阅读 · 13 评论 -
ICLR 2020 中的 Attention Papers
ICLR 2020 中的 Attention PapersICLR 2017-2019 中的 Attention PapersCVPR 2019 中的 Attention PapersCVPR 2018 中的 Attention PapersCVPR 2017 中的 Attention PapersICCV 2019 中的 Attention PapersICC...原创 2020-05-07 01:26:20 · 971 阅读 · 0 评论 -
MyDLNote - Attention: ECA-Net: Efficient Channel Attention for Deep Convolutional Neural Networks
MyDLNote - Attention: [2020CVPR] ECA-Net: Efficient Channel Attention for Deep Convolutional Neural NetworksQilong Wang1 , Banggu Wu1 , Pengfei Zhu1 , Peihua Li2 , Wangmeng Zuo3 , Qinghua Hu1,∗1 T...原创 2020-05-05 17:24:21 · 1544 阅读 · 0 评论 -
ICLR 2017-2019 中的 Attention Papers
2019Pay Less Attention with Lightweight and Dynamic ConvolutionsFelix Wu,Angela Fan,Alexei Baevski,Yann Dauphin,Michael Auli28 Sep 2018 (modified: 21 Feb 2019)ICLR 2019 Conference Blind...原创 2020-04-24 21:56:22 · 565 阅读 · 1 评论 -
ECCV 2018 中的 Attention Papers
ECCV 2018 中的 Attention PapersCVPR 2019 中的 Attention PapersCVPR 2018 中的 Attention PapersCVPR 2017 中的 Attention PapersICCV 2019 中的 Attention PapersICCV 2017 中的 Attention PapersVideo Object S...原创 2020-04-24 21:01:41 · 608 阅读 · 0 评论 -
ICCV 2017 中的 Attention Papers
ICCV 2017 中的 Attention PapersPapersAreas of Attention for Image CaptioningMarco Pedersoli,Thomas Lucas,Cordelia Schmid,Jakob Verbeek[pdf] [Supp] [arXiv][bibtex]VQS: Linking Segment...原创 2020-04-24 20:51:59 · 367 阅读 · 0 评论 -
ICCV 2019 中的 Attention Papers
ICCV 2019 中的 Attention PapersHierarchical Self-Attention Network for Action Localization in VideosRizard Renanda Adhi Pramono,Yie-Tarng Chen,Wen-Hsien Fang[pdf] [supp][bibtex]Mixed Hi...原创 2020-04-23 21:23:48 · 1052 阅读 · 0 评论 -
CVPR 2017 中的 Attention Papers
CVPR 2017 中的 Attention PapersDual Attention Networks for Multimodal Reasoning and MatchingHyeonseob Nam,Jung-Woo Ha,Jeonghee Kim[pdf] [arXiv] [video][bibtex]Knowing When to Look: Adap...原创 2020-04-23 21:21:56 · 325 阅读 · 0 评论 -
CVPR 2019 中的 Attention Papers
CVPR 2019 中的 Attention PapersVisual Attention Consistency Under Image Transforms for Multi-Label Image ClassificationHao Guo,Kang Zheng,Xiaochuan Fan,Hongkai Yu,Song Wang[pdf] [su...原创 2020-04-23 21:20:03 · 875 阅读 · 0 评论 -
CVPR 2018 中的 Attention Papers
CVPR 2018 中的 Attention PapersDiversity Regularized Spatiotemporal Attention for Video-Based Person Re-IdentificationShuang Li,Slawomir Bak,Peter Carr,Xiaogang Wang[pdf] [Supp] [arXiv]...原创 2020-04-23 21:17:31 · 457 阅读 · 0 评论 -
MyDLNote - Enhancement : [NLA系列] Image Restoration via Residual Non-local Attention Networks
[2019ICLR] Image Restoration via Residual Non-local Attention Networks[paper]Image Restoration via Residual Non-local Attention Networks[PyTorch]https://github.com/yulunzhang/RNAN[Non-Local...原创 2020-04-16 23:27:28 · 905 阅读 · 1 评论 -
MyDLNote - Attention:[NLA系列] CCNet: Criss-Cross Attention for Semantic Segmentation
CCNet: Criss-Cross Attention for Semantic Segmentation[paper] :CCNet: Criss-Cross Attention for Semantic Segmentation[github] :https://github.com/speedinghzl/CCNet[Non-Local Attention 系列]Non...原创 2020-03-09 01:32:44 · 1283 阅读 · 0 评论 -
MyDLNote - Network: [NLA系列] Efficient Attention: Attention with Linear Complexities
Efficient Attention: Attention with Linear Complexities[paper]Efficient Attention: Attention with Linear Complexities[Project]https://cmsflash.github.io/ai/2019/12/02/efficient-attention.html[...原创 2020-02-28 17:00:18 · 3276 阅读 · 2 评论 -
MyDLNote - Attention: [NLA系列] Asymmetric Non-local Neural Networks for Semantic Segmentation
Asymmetric Non-local Neural Networks for Semantic SegmentationZhen Zhu , Mengde Xu , Song Bai , Tengteng Huang , Xiang BaiHuazhong University of Science and Technology, University of Oxford[GitH...原创 2019-11-07 14:29:00 · 2844 阅读 · 1 评论