AICurator
https://mbd.pub/o/author-aWaWmHBoZA==/work
展开
-
Pointnet++改进即插即用系列:全网首发WTConv2d大接受域的小波卷积|即插即用,提升特征提取模块性能
近年来,人们一直试图增加卷积神经网络(cnn)的核大小,以模拟视觉变形者(ViTs)的全局接受场自注意块。然而,这种方法在达到全局接受场之前很快就达到了上限和饱和。在这项工作中,我们证明了通过利用小波变换(WT),实际上可以在不受过度参数化影响的情况下获得非常大的接受域,例如,对于k × k的接受域,所提出的方法中可训练参数的数量仅随k呈对数增长。所提出的层,称为WTConv,可以用作现有架构中的临时替代品,产生有效的多频响应。并随着接受野的大小优雅地缩放。原创 2024-07-20 18:34:57 · 2042 阅读 · 0 评论 -
Pointnet++改进即插即用系列:全网首发KACNConv2DLayer|即插即用,提升特征提取模块性能
地址。原创 2024-07-03 22:13:35 · 381 阅读 · 0 评论 -
Pointnet++改进即插即用系列:全网首发GLSA聚合和表示全局和局部空间特征|即插即用,提升特征提取模块性能
基于变压器的模型已经被广泛证明是成功的计算机视觉任务,通过建模远程依赖关系和捕获全局表示。然而,它们往往被大模式的特征所主导,导致局部细节(例如边界和小物体)的丢失,这在医学图像分割中是至关重要的。为了缓解这一问题,我们提出了一种双聚合变压器网络,称为DuAT,其特点是两个创新的设计,即全局到局部空间聚合(GLSA)和选择性边界聚合(SBA)模块。GLSA具有聚合和表示全局和局部空间特征的能力,这有利于分别定位大目标和小目标。原创 2024-07-03 22:05:09 · 450 阅读 · 1 评论 -
Pointnet++改进即插即用系列:全网首发KALNConv|即插即用,提升特征提取模块性能
简化KAN模型概述KANvolver:用于MNIST图像分类的单基函数KAL-Net:在Kolmogorov Arnold Legendre网络中利用Legendre多项式利用Chebyshev多项式这个项目展示了使用PyTorch和CUDA加速对KAN模型进行训练、验证和量化。在MNIST数据集上对torchkan模型进行了评估,显示出显著的精度提高。原创 2024-06-20 18:28:07 · 343 阅读 · 1 评论 -
Pointnet++改进即插即用系列:全网首发FastKAN|即插即用,提升特征提取模块性能
这篇简短的论文是一个快速的概念证明,用于Kolmogorov-Arnold网络(KANs)的3阶b样条可以很好地近似高斯径向基函数。这样做会导致FastKAN,这是一个更快的KAN实现,也是一个径向基函数(RBF)网络。原创 2024-06-20 16:33:51 · 346 阅读 · 0 评论 -
Pointnet++改进即插即用系列:全网首发HeatBlock高计算效率和全局接受野|即插即用,提升特征提取模块性能
学习鲁棒性和表达性视觉表征的一个基本问题是如何有效地估计整个图像中视觉语义的空间关系。在这项研究中,我们提出了一种新的视觉骨干模型vHeat,同时实现了高计算效率和全局接受野。受热传导物理原理的启发,其基本思想是将图像块概念化为热源,并将其相关性的计算建模为热能的扩散。该机制通过新提出的热传导算子(HCO)模块整合到深度模型中,该模块在物理上是合理的,可以使用DCT和IDCT操作有效地实现,复杂度为0 (N1.5)。原创 2024-06-19 20:45:50 · 129 阅读 · 0 评论 -
Pointnet++改进即插即用系列:全网首发ConvolutionalGLU|即插即用,提升特征提取模块性能
由于残差连接的深度退化效应,许多依赖堆叠层进行信息交换的高效视觉变形模型往往不能形成足够的信息混合,导致视觉感知不自然。为了解决这个问题,在本文中,我们提出了聚合注意力,这是一种基于仿生设计的令牌混合器,它模拟生物中央凹视觉和连续眼运动,同时使特征映射上的每个令牌具有全局感知。此外,我们结合了可学习的令牌,与传统的查询和键交互,这进一步多样化了亲和矩阵的生成,而不仅仅依赖于查询和键之间的相似性。我们的方法不依赖于堆叠进行信息交换,从而有效地避免了深度退化,实现了自然的视觉感知。原创 2024-06-05 20:44:35 · 291 阅读 · 2 评论 -
Pointnet++改进卷积系列:全网首发SMPConv连续卷积 |即插即用,提升特征提取模块性能
连续卷积最近因其处理不规则采样数据和建立长期依赖关系模型的能力而备受关注。此外,使用大卷积核的有希望的实验结果催化了连续卷积的发展,因为它们可以非常有效地构造大核。利用神经网络,更具体地说是多层感知器(mlp),是迄今为止实现连续卷积最流行的方法。然而,有一些缺点,如高计算成本,复杂的超参数调优,和有限的描述能力的过滤器。本文提出了一种不使用神经网络构建连续卷积的替代方法,从而提高了计算效率和性能。我们提出了权参数自由移动的自移动点表示,并使用插值格式实现连续函数。原创 2024-06-05 20:16:13 · 485 阅读 · 0 评论 -
Pointnet++改进即插即用系列:全网首发SSPCAB自监督预测卷积关注块|即插即用,提升特征提取模块性能
异常检测通常是一个单类分类问题,模型只能从正常的训练样本中学习,同时对正常和异常的测试样本进行评估。在成功的异常检测方法中,一类特殊的方法依赖于预测被掩盖的信息(如补丁、未来帧等),并利用与被掩盖信息相关的重建误差作为异常评分。与相关方法不同,我们提出将基于重建的功能集成到一种新的自监督预测架构构建块中。所提出的自监督块是通用的,可以很容易地结合到各种最新的异常检测方法中。我们的区块从一个带有扩展过滤器的卷积层开始,其中接受野的中心区域被掩盖。产生的激活图通过一个通道注意模块传递。原创 2024-05-22 14:41:42 · 119 阅读 · 0 评论 -
Pointnet++改进即插即用系列:全网首发KAN替换多层感知器|即插即用,提升特征提取模块性能
受Kolmogorov-Arnold表示定理的启发,我们提出Kolmogorov-Arnold网络(KANs)作为多层感知器(mlp)的有前途的替代品。mlp在节点(“神经元”)上有固定的激活函数,而kan在边缘(“权重”)上有可学习的激活函数。kan根本没有线性权重——每个权重参数都被参数化为样条的单变量函数所取代。我们表明,这个看似简单的改变使得KANs在准确性和可解释性方面优于mlp。就准确性而言,在数据拟合和PDE求解方面,更小的kan可以达到与更大的mlp相当或更好的准确性。原创 2024-05-20 21:51:37 · 885 阅读 · 4 评论 -
Pointnet++改进注意力机制系列:全网首发CAA锚定注意机制 |即插即用,实现有效涨点
PKINet不依赖于大核卷积或扩展卷积来扩展感受野,而是利用无扩展的初始式深度卷积来提取不同感受野之间的多尺度纹理特征。其次,我们的方法结合了上下文锚定注意(CAA)机制来捕获远程上下文信息。这两个组件协同工作,促进了局部和全局上下文信息的自适应特征提取,从而提高了遥感目标检测的性能。原创 2024-05-18 20:44:49 · 596 阅读 · 2 评论 -
Pointnet++改进即插即用系列:全网首发Star_Block星型操作 |即插即用,提升特征提取模块性能
最近的研究引起了人们对网络设计中尚未开发的“星型操作”(元素智能乘法)潜力的关注。虽然有很多直观的解释,但其应用背后的基本原理在很大程度上仍未被探索。我们的研究试图揭示星形运算在不扩大网络的情况下,将输入映射到高维、非线性特征空间的能力——类似于核技巧。我们进一步介绍了StarNet,一个简单而强大的原型,在紧凑的网络结构和高效的预算下展示了令人印象深刻的性能和低延迟。就像天上的星星一样,星星的运作看起来不起眼,但却蕴藏着巨大的潜力。StarNet架构概述。原创 2024-05-18 20:39:23 · 196 阅读 · 0 评论 -
Pointnet++改进即插即用系列:全网首发UIB轻量化模块
基于最成功的MobileNet成分-可分离深度卷积(DW)和点向扩展(PW)和投影倒瓶颈结构,本文引入了一个新的构建块-通用倒瓶颈(UIB)块,如图4所示。它的结构相当简单。我们在倒瓶颈块中引入两个可选的dw,一个在扩展层之前,一个在扩展层和投影层之间。这些dw的存在与否是NAS优化过程的一部分,从而产生新的体系结构。尽管这种修改很简单,但我们的新构建块很好地统一了几个重要的现有块,包括原来的IB块、ConvNext块和ViT中的FFN块。原创 2024-05-10 19:23:07 · 232 阅读 · 3 评论 -
Pointnet++改进即插即用系列:全网首发PPA反向残差移动块 |即插即用,提升特征提取模块性能
具体来说,它包括并行化的补丁感知注意(PPA)模块、维度感知选择性集成(DASI)模块和多扩展通道细化(MDCR)模块。PPA模块采用多分支特征提取策略,捕获不同尺度和层次的特征信息。DASI模块支持自适应信道选择和融合。MDCR模块通过多个深度可分卷积层捕获不同感受野范围的空间特征。在SIRST红外单帧图像数据集上的大量实验结果表明,所提出的HCF-Net优于其他传统和深度学习模型。并行补丁感知注意模块的详细结构。该模块主要由两部分组成:多分支融合和注意机制。多分支融合组件包括补丁感知和连接卷积。原创 2024-04-26 16:06:16 · 390 阅读 · 3 评论 -
Pointnet++改进即插即用系列:全网首发DGCST反向残差移动块 |即插即用,提升特征提取模块性能
Dynamic Group Shuffle Transformer (DGST)是一种将Vision Transformer与DGSM模块集成在一起的创新结构,如图2所示,旨在进一步提高模型的计算效率和性能。DGST模块的核心是3:1分割策略,其中一部分进行群卷积和信道洗牌操作,卷积操作替换全连接的Linear达到同样的效果,将该模块替换为原来的颈部模块。这种设计不仅减少了计算需求,而且更好地适应了卷积神经网络的特点,有可能为模型提供优越的性能。原创 2024-04-23 19:41:04 · 217 阅读 · 3 评论 -
Pointnet++改进卷积系列:全网首发DynamicConv |即插即用,提升特征提取模块性能
大规模视觉预训练显著提高了大型视觉模型的性能。然而,我们观察到低FLOPs的缺陷,即现有的低FLOPs模型不能从大规模的预训练中获益。在本文中,我们引入了一种新的设计原则,称为ParameterNet,旨在增加大规模视觉预训练模型中的参数数量,同时最小化FLOPs的增加。我们利用动态卷积将额外的参数合并到网络中,而FLOPs仅略有上升。ParameterNet方法允许低flops网络利用大规模视觉预训练。此外,我们将参数网的概念扩展到语言领域,在保持推理速度的同时增强推理结果。原创 2024-04-23 19:34:03 · 449 阅读 · 0 评论 -
Pointnet++改进即插即用系列:全网首发iRMB反向残差移动块 |即插即用,提升特征提取模块性能
本文的重点是在权衡参数、FLOPs和性能的同时,为密集预测开发现代、高效、轻量级的模型。倒立残差块(IRB)是轻量级cnn的基础结构,但在基于注意力的研究中还没有相应的基础结构。本文从高效IRB和Transformer的有效组件的统一角度重新思考轻量级基础架构,将基于cnn的IRB扩展到基于注意力的模型,并抽象出一个用于轻量级模型设计的单残留元移动块(MMB)。根据简单而有效的设计准则,我们推导出了一种现代的反向残差移动块(iRMB),并构建了一个只有iRMB的类resnet高效模型(EMO)用于下游任务。原创 2024-04-10 11:26:53 · 282 阅读 · 0 评论 -
Pointnet++改进卷积系列:全网首发DualConv轻量级深度神经网络的双卷积核 |即插即用,提升特征提取模块性能
我们提出了双卷积核(DualConv)来构建轻量级深度神经网络。DualConv结合3 × 3和1 × 1卷积核同时处理相同的输入特征映射通道,并利用群卷积技术高效排列卷积滤波器。DualConv可以在任何CNN模型中使用,如VGG-16和ResNet-50进行图像分类,你只看一次(YOLO)和R-CNN进行对象检测,或完全卷积网络(FCN)进行语义分割。在这项工作中,我们对DualConv进行了广泛的分类测试,因为这些网络架构构成了许多其他任务的主干。原创 2024-04-10 11:18:49 · 366 阅读 · 0 评论 -
Pointnet++改进即插即用系列:全网首发DilatedReparamBlock |即插即用,提升特征提取模块性能
近年来,大核卷积神经网络(ConvNets)得到了广泛的研究关注,但有两个尚未解决的关键问题需要进一步研究。1)现有的大核卷积神经网络的架构在很大程度上遵循了传统卷积神经网络或变压器的设计原则,而大核卷积神经网络的架构设计仍然有待解决。2)由于变形控制了多种模态,卷积神经网络在视觉以外的领域是否也具有较强的普遍感知能力还有待研究。在本文中,我们从两个方面做出贡献。1)我们提出了设计大核卷积神经网络的四个架构准则,其核心是利用大核区别于小核的本质特征——它们可以看到宽而不深入。原创 2024-04-09 12:20:15 · 247 阅读 · 0 评论 -
Pointnet++改进即插即用系列:全网首发RCSOSA重参数化卷积架构 |即插即用,提升特征提取模块性能
我们首先将RepVGG/RepConv与ShuffleNet相结合,开发了RepVGG/RepConv ShuffleNet (RCS),该RCS受益于重新参数化,可以在训练阶段提供更多的特征信息,减少推理时间。然后,我们构建了一个基于rcs的一次性聚合(RCSOSA)模块,该模块不仅可以降低内存消耗,而且可以进行语义信息提取。原创 2024-04-09 10:57:52 · 244 阅读 · 0 评论 -
Pointnet++改进即插即用系列:全网首发MSBlock |即插即用,提升特征提取模块性能
2.1 步骤一continueif i >= 1:return out。原创 2024-04-02 10:31:04 · 189 阅读 · 0 评论 -
Pointnet++改进即插即用系列:全网首发OREPA在线重新参数化卷积,替代普通卷积 |即插即用,提升特征提取模块性能
NAMAAttention注意力机制简介:结构重参数化在各种计算机视觉任务中受到越来越多的关注。它旨在在不引入任何推理时间成本的情况下提高深度模型的性能。虽然这种模型在推理过程中效率很高,但为了达到较高的准确率,这种模型严重依赖于复杂的训练时间块,导致了大量的额外训练成本。在本文中,我们提出了在线卷积重新参数化(OREPA),一种两阶段管道,旨在通过将复杂的训练时间块压缩到单个卷积中来减少巨大的训练开销。为了实现这一目标,我们引入了一个线性缩放层来更好地优化在线块。原创 2024-04-02 10:25:47 · 549 阅读 · 0 评论 -
Pointnet++改进即插即用系列:全网首发Shift-ConvNets具有大核效应的小卷积核 |即插即用,提升特征提取模块性能
近年来的研究表明,视觉变压器(ViTs)的卓越性能得益于大的接受野。因此,大卷积核设计成为卷积神经网络(cnn)再次伟大的理想解决方案。然而,典型的大卷积核是对硬件不友好的运算符,导致各种硬件平台的兼容性降低。因此,简单地扩大卷积核的大小是不明智的。在本文中,我们揭示了小卷积核和卷积操作可以实现大核大小的关闭效果。然后,我们提出了一种移位算子,确保cnn在稀疏机制的帮助下捕获远程依赖关系,同时保持硬件友好。实验结果表明,我们的移位算子显著提高了常规CNN的准确率,同时显著降低了计算需求。原创 2024-03-06 12:25:57 · 422 阅读 · 2 评论 -
Pointnet++改进即插即用系列:全网首发DBB多元分支块 |即插即用,提升特征提取模块性能
我们提出了一种通用的卷积神经网络(ConvNet)构建块,在不需要任何推理时间成本的情况下提高其性能。该块被命名为多元分支块(DBB),通过组合不同规模和复杂度的分支来增强单个卷积的表示能力,从而丰富特征空间,包括卷积序列、多尺度卷积和平均池化。经过训练后,DBB可以等效地转换为单个转换层进行部署。与新颖的ConvNet体系结构的进步不同,DBB在保持宏观体系结构的同时使训练时间的微观结构复杂化,因此它可以用作任何体系结构的常规转换层的临时替代品。原创 2024-03-06 11:01:11 · 259 阅读 · 0 评论 -
Pointnet++改进即插即用系列:全网首发RepLKNet超大卷积核, 越大越暴力 |即插即用,提升特征提取模块性能
我们重新审视现代卷积神经网络(cnn)中的大核设计。受视觉转换器(ViTs)最新进展的启发,在本文中,我们证明使用几个大卷积核而不是一堆小核可能是一个更强大的范例。我们提出了五条准则,例如,应用重新参数化的大深度卷积来设计高效的高性能大核cnn。遵循指导方针,我们提出了RepLKNet,一个纯CNN架构,其内核大小为31×31,而不是常用的3×3。原创 2024-02-26 12:15:34 · 627 阅读 · 4 评论 -
Pointnet++改进卷积系列:全网首发AKConv具有任意采样形状和任意数目参数的卷积核 |即插即用,提升特征提取模块性能
2.1 步骤一# clip p# bilinearreturn outreturn p_nreturn p_0return p。原创 2024-02-22 11:54:37 · 203 阅读 · 0 评论 -
Pointnet++改进卷积系列:全网首发RFAConv创新空间注意力和标准卷积运算 |即插即用,提升特征提取模块性能
摘要。空间注意被广泛用于提高卷积神经网络的性能。然而,它也有一定的局限性。本文提出了空间注意有效性的新视角,即空间注意机制本质上解决了卷积核参数共享问题。然而,空间注意生成的注意图所包含的信息对于大尺度卷积核来说是不够的。因此,我们提出了一种新的注意机制,即接受场注意(RFA)。现有的空间注意方法,如卷积块注意模块(CBAM)和协调注意(CA),只关注空间特征,没有充分解决卷积核参数共享问题。相比之下,RFA不仅关注接受场空间特征,而且为大尺寸卷积核提供了有效的注意权值。原创 2024-02-22 11:32:57 · 415 阅读 · 0 评论 -
Pointnet++改进卷积系列:全网首发SCConv用于特征冗余的空间和通道重构卷积 |即插即用,提升特征提取模块性能
卷积神经网络(cnn)在各种计算机视觉任务中取得了显著的性能,但这是以巨大的计算资源为代价的,部分原因是卷积层提取冗余特征。最近的作品要么压缩训练有素的大型模型,要么探索设计良好的轻量级模型。在本文中,我们尝试利用特征之间的空间和通道冗余来进行CNN压缩,并提出了一种高效的卷积模块,称为SCConv (spatial and channel reconstruction convolution),以减少冗余计算并促进代表性特征的学习。原创 2024-02-21 13:43:31 · 805 阅读 · 0 评论 -
Pointnet++改进卷积系列:全网首发DEConv细节增强卷积 |即插即用,提升特征提取模块性能
通过使用重新参数化技术,将DEConv等效地转换为没有额外参数和计算成本的普通卷积。通过为每个信道分配唯一的空间重要性映射(SIM), CGA可以获得更多编码在特征中的有用信息。此外,提出了一种基于cgaba的混合融合方案,可以有效地融合特征并辅助梯度流。通过结合上述组件,我们提出了用于恢复高质量无雾图像的细节增强注意力网络(DEA-Net)。细节增强卷积(DEConv)。原创 2024-02-21 12:40:15 · 225 阅读 · 0 评论 -
Pointnet++改进卷积系列:全网首发ODConv2全维动态卷积 |即插即用,提升特征提取模块性能
在每个卷积层中学习单个静态卷积核1是现代卷积神经网络(cnn)的常见训练范式。相反,最近的动态卷积研究表明,学习n个卷积核的线性组合,并对其输入依赖的关注进行加权,可以显著提高轻量级cnn的精度,同时保持有效的推理。然而,我们观察到,现有的工作通过核空间的一个维度(关于卷积核数)赋予卷积核以动态特性,而忽略了其他三个维度(关于每个卷积核的空间大小、输入通道数和输出通道数)。受此启发,我们提出了全维动态卷积(ODConv),这是一种更广义但更优雅的动态卷积设计,以推进这一研究方向。原创 2024-02-01 19:28:59 · 194 阅读 · 0 评论 -
Pointnet++改进优化器系列:全网首发Lion优化器 |即插即用,实现有效涨点
提出了一种将算法发现表述为程序搜索的方法,并将其应用于深度神经网络训练优化算法的发现。我们利用高效的搜索技术来探索无限和稀疏的程序空间。为了弥合代理任务和目标任务之间的巨大泛化差距,我们还引入了程序选择和简化策略。我们的方法发现了一个简单有效的优化算法,Lion(进化符号动量)。它比Adam更节省内存,因为它只跟踪动量。与自适应优化器不同,它的更新对于通过符号操作计算的每个参数具有相同的幅度。我们将Lion与广泛使用的优化器(如Adam和Adafactor)进行比较,以在不同任务上训练各种模型。原创 2024-02-01 17:57:14 · 377 阅读 · 0 评论 -
Pointnet++改进优化器系列:全网首发Sophia优化器 |即插即用,实现有效涨点
考虑到语言模型预训练的巨大成本,对优化算法进行重大改进将大大减少训练的时间和成本。Adam及其变体多年来一直是最先进的,而更复杂的二阶(基于hessian的)优化器通常会导致过多的每一步开销。在本文中,我们提出了索菲亚,二阶裁剪随机优化,一个简单的可扩展的二阶优化器,它使用对角线Hessian的轻量级估计作为前置条件。更新是梯度的移动平均值除以估计的Hessian的移动平均值,然后是元素裁剪。该裁剪控制了最坏情况下的更新大小,抑制了非凸性和Hessian沿轨迹快速变化的负面影响。原创 2024-01-27 23:20:19 · 345 阅读 · 0 评论 -
Pointnet++改进优化器系列:全网首发AdamW优化器 |即插即用,实现有效涨点
L2正则化和权重衰减正则化对于标准随机梯度下降是等效的(当通过学习率重新缩放时),但正如我们所证明的,对于自适应梯度算法,如Adam,情况并非如此。虽然这些算法的常见实现采用L2正则化(通常称为“权重衰减”,由于我们暴露的不等价性可能会产生误导),但我们提出了一个简单的修改,通过将权重衰减与w.r.t.损失函数所采取的优化步骤解耦来恢复权重衰减正则化的原始公式。原创 2024-01-27 23:10:12 · 301 阅读 · 0 评论 -
Pointnet++改进注意力机制系列:全网首发ShuffleAttention注意力机制 |即插即用,实现有效涨点
注意机制使神经网络能够准确地关注输入的所有相关元素,已成为提高深度神经网络性能的重要组成部分。在计算机视觉研究中广泛应用的注意机制主要有空间注意和通道注意两种,它们的目的分别是捕捉像素级的成对关系和通道依赖关系。虽然将它们融合在一起可以获得比单独实现更好的性能,但它将不可避免地增加计算开销。在本文中,我们提出了一个高效的Shuffle Attention (SA)模块来解决这个问题,该模块采用Shuffle Units来有效地结合两种类型的注意机制。原创 2024-01-18 11:48:40 · 272 阅读 · 0 评论 -
Pointnet++改进注意力机制系列:全网首发DoubleAttention注意力机制 |即插即用,实现有效涨点
学习捕捉远程关系是图像/视频识别的基础。现有的CNN模型通常依赖于增加深度来建模这种关系,这是非常低效的。在这项工作中,我们提出了“双注意块”,这是一种新的组件,它从输入图像/视频的整个时空空间中聚集和传播信息全局特征,使后续卷积层能够有效地从整个空间中访问特征。该组件采用双注意机制,分两步进行设计,第一步通过二阶注意池将整个空间的特征聚集成一个紧凑的集合,第二步通过另一个注意自适应地选择特征并将其分配到每个位置。所提出的双注意块易于采用,并且可以方便地插入现有的深度神经网络中。原创 2024-01-18 11:30:12 · 350 阅读 · 0 评论 -
Pointnet++改进注意力机制系列:全网首发TripletAttention轻量且有效注意力机制 |即插即用,实现有效涨点
由于注意机制具有在通道或空间位置之间建立相互依赖关系的能力,近年来在各种计算机视觉任务中得到了广泛的研究和应用。在本文中,我们研究了轻量级但有效的注意机制,并提出了三重注意,这是一种利用三分支结构捕获跨维交互来计算注意权重的新方法。对于输入张量,三元组注意力通过旋转操作建立维度间依赖关系,然后进行残差变换,并以可忽略不计的计算开销对通道间和空间信息进行编码。我们的方法简单高效,可以作为附加模块轻松插入经典骨干网。原创 2024-01-15 12:11:19 · 456 阅读 · 0 评论 -
Pointnet++改进注意力机制系列:全网首发SE通道注意力机制 |即插即用,实现有效涨点!
卷积算子是卷积神经网络(cnn)的核心组成部分,它使网络能够通过融合每层局部接受域内的空间和通道信息来构建信息特征。之前的广泛研究已经调查了这种关系的空间成分,试图通过提高整个特征层次的空间编码质量来加强CNN的表征能力。在这项工作中,我们将重点放在通道关系上,并提出了一种新的架构单元,我们称之为“挤压和激励”(SE)块,该单元通过明确建模通道之间的相互依赖性,自适应地重新校准通道特征响应。我们表明,这些块可以堆叠在一起,形成SENet架构,在不同的数据集上非常有效地泛化。原创 2024-01-15 11:58:12 · 361 阅读 · 0 评论 -
Pointnet++改进系列:全网首发RepVGG结构重参数化 |即插即用,实现有效涨点
我们提出了一种简单但功能强大的卷积神经网络结构,该结构具有类似vgg的推理时间主体,仅由3 × 3卷积和ReLU堆栈组成,而训练时间模型具有多分支拓扑结构。通过结构重参数化技术实现训练时间和推理时间结构的解耦,将模型命名为RepVGG。在ImageNet上,RepVGG达到了80%以上的top-1精度,据我们所知,这是第一次对一个普通模型。原创 2024-01-12 11:48:46 · 174 阅读 · 2 评论 -
Pointnet++改进卷积系列:全网首发PConv(减少冗余计算) |即插即用,提升特征提取模块性能
为了设计快速的神经网络,许多工作都集中在减少浮点运算(FLOPs)的数量上。然而,我们观察到FLOPs的这种减少并不一定会导致类似程度的延迟减少。这主要源于低效率的每秒浮点操作数(FLOPS)。为了实现更快的网络,我们回顾了流行的运营商,并证明了如此低的FLOPS主要是由于运营商频繁的内存访问,特别是深度卷积。因此,我们提出了一种新的部分卷积(PConv),通过减少冗余计算和同时存储访问,更有效地提取空间特征。原创 2024-01-12 11:31:17 · 304 阅读 · 0 评论 -
Pointnet++改进注意力机制系列:全网首发MLCA轻量级的混合本地信道注意力机制 |即插即用,实现有效涨点
注意机制是计算机视觉中应用最广泛的组成部分之一,它可以帮助神经网络突出重要元素,抑制无关元素。然而,绝大多数通道注意机制只包含通道特征信息,忽略了空间特征信息,导致模型表示效果或目标检测性能较差,且空间注意模块往往复杂且昂贵。为了在性能和复杂性之间取得平衡,本文提出了一种轻量级的混合本地信道注意(MLCA)模块来提高目标检测网络的性能,该模块可以同时包含信道信息和空间信息,以及局部信息和全局信息,以提高网络的表达效果。原创 2024-01-11 11:32:21 · 810 阅读 · 0 评论