YOLOv9改进
文章平均质量分 95
本专栏为YOLOv9改进,结合顶会论文魔改YOLOv9,有注意机制和融合卷积等改进,实现有效涨点,从环境配置教程到源码实战,并结合pyqt5实现可视化界面,代码已整理好,小白也能轻松上手
优惠券已抵扣
余额抵扣
还需支付
¥199.90
¥299.90
购买须知?
本专栏为图文内容,最终完结不会低于15篇文章。
订阅专栏,享有专栏所有文章阅读权限。
本专栏为虚拟商品,基于网络商品和虚拟商品的性质和特征,专栏一经购买无正当理由不予退款,不支持升级,敬请谅解。
挂科边缘
计算机科学与技术硕士,擅长计算机视觉,YOLO目标检测、分割等,擅长web、pyqt界面可视化,好内容持续更新中,来这里跟大家一起学习,共同进步
展开
-
《手把手教你YOLOv9实战》,改进专栏目录
为了提供友好的操作效果,本专栏将会手把手搭建可视化界面,我将用PyQt5 搭建一个可视化界面,可视化界面能够实现基本的图像加载与检测功能,如支持视频、摄像头,还支持更换不同的 YOLOv9 模型,并适应不同领域(如口罩检测系统、人脸检测系统、工业缺陷检测系统等),界面灵活、功能强大。通过YOLOv9加以改进设计,形成新的算法框架,一起水科研和论文,专栏会一直持续更新中,本专栏适合目标检测、分割、分类。原创 2024-08-09 14:48:14 · 543 阅读 · 1 评论 -
YOLOv9分割改进 ,YOLOv9分割改进主干网络为华为EfficientNet,助力涨点
EfficientNet论文中研究了卷积网络的缩放和,并证明对深度,宽度和分辨率复合缩放的重要性,因此精度和效率更好。为了阐述相关的原理,我们提出了简单有效的复合缩放方法,使得模型缩放具有一定设计准则,同时兼顾了模型的效率。我下文将 YOLOv9 分割模型改进主干网络为 EfficientNet 融合网络结构。论文地址代码地址下文都是手把手教程,跟着操作即可添加成功把环境配置好,数据集处理好,训练基本能成功,创作不易,请帮忙点一个爱心,关注我,带你不挂科!原创 2024-10-12 23:11:22 · 406 阅读 · 0 评论 -
YOLOv9分割训练自己数据和推理训练好模型,并教你使用Labelme工具标注数据(附YOLOv9分割模型结构图),全网最详细教程
YOLOv9 通过研究数据传输时的信息丢失问题,提出了可编程梯度信息(PGI)和通用高效层聚合网络(GELAN)架构,提高了参数利用率和模型性能。与 SOTA 方法相比,GELAN 仅使用传统卷积算子即可实现更好的参数利用率。PGI 适用于从轻型到大型的各种模型,使从头开始训练的模型能够获得更好的结果。YOLOv9 被评价为新的 SOTA 实时目标检测器。接下来本文手把手教你训练自己分割数据集和推理训练好的分割模型。原创 2024-10-09 23:24:14 · 385 阅读 · 0 评论 -
YOLOv9改进,YOLOv9主干网络替换为PP-LCNetV2(百度飞浆视觉团队自研,轻量化架构),全网独发
PP-LCNetV2模型结构如下:在PP-LCNetV1基础上重参数化策略组合了不同大小卷积核的深度卷积,并优化了点卷积、Shortcut等。原创 2024-09-27 16:46:20 · 350 阅读 · 0 评论 -
YOLOv9改进 | 主干篇,华为的轻量化架构GhostNetV1改进YOLOv9主干特征提取网络
作者提出的Ghost模块与现有的高效卷积方案有主要区别。与广泛使用1×1逐点卷积的单元相比,Ghost模块中的主要卷积可以有定制的核大小。i现有方法采用逐点卷积处理跨通道特征,然后采用深度卷积处理空间信息。相比之下,Ghost模块采用普通卷积首先生成少量内在特征图,然后利用廉价的线性操作增强特征并增加通道。以前的高效架构中处理每个特征图的操作限于深度卷积或移位操作,而Ghost模块中的线性操作可以有很大的多样性。此外,在Ghost模块中,恒等映射与线性变换并行,以保留内在特征图。原创 2024-09-27 09:00:51 · 135 阅读 · 0 评论 -
YOLOv9改进,华为的轻量化架构GhostNetV2改进特征提取网络
GhostNetV2 架构通过引入DFC 注意力,提升了网络的表达能力,同时保持了在移动设备上的高效性。DFC 注意力机制使用两个解耦的全连接层来处理特征图的水平和垂直方向。通过将输入特征图沿水平方向和垂直方向进行特征聚合,DFC注意力机制能够捕捉到全局信息,并提升模型的表达能力原创 2024-09-26 01:43:26 · 249 阅读 · 0 评论 -
YOLOv9改进,YOLOv9改进主干网络为GhostNetV3(2024年华为提出的轻量化架构,全网首发),助力涨点
GhostNetV3引入了多分支重参数化机制,通过在卷积层中添加额外的平行分支来改善性能。这些分支在训练过程中提供更多的表征能力,最终通过将多个分支重组为一个卷积层来实现推理时的高效性。通过添加配备 BatchNorm 层的重复分支将再参数化引入紧凑型模型。原创 2024-09-26 00:24:51 · 415 阅读 · 0 评论 -
YOLOv9改进 | 特征融合篇,YOLOv9添加iAFF(多尺度通道注意力模块),二次创新RepNCSPELAN4结构,提升小目标检测能力
AFF和iAFF的示意图如下:AFF模块:通过关注通道的不同尺度(即多尺度通道注意力),解决不同层次特征融合的语义和尺度不一致问题。图(a)中两个输入特征图(X 和 Y)的信息,经过多尺度通道注意力模块(MS-CAM)后,输出特征图Z。输入特征 X 和 Y:分别表示不同层或不同尺度的特征图。它们的尺寸都是 C×H×W (C 是通道数,H 和 W 是特征图的高度和宽度)。加权乘法:首先对 X 和 Y进行通道上的加权操作,用不同的权重去强调某些通道的信息。原创 2024-09-24 20:53:10 · 348 阅读 · 0 评论 -
YOLOv9改进,YOLOv9主干网络为FasterNet(全网独发手把手教学,助力涨点)
FasterNet的整体架构由四个分层阶段组成,每个阶段包含一组FasterNet模块,并在前面加一个嵌入或合并层。最后三层用于特征分类。每个FasterNet模块内部,一个PConv层后跟两个PWConv层,为了保持特征多样性并降低延迟,归一化和激活层仅在中间层之后进行,其中,PConv 是一种快速高效的卷积操作,通过仅对部分输入通道应用卷积滤波器,而保持其余通道不变,从而减少了计算量和内存访问。原创 2024-09-22 21:29:04 · 324 阅读 · 0 评论 -
YOLOv9改进,YOLOv9颈部网络SPPELAN替换为FocalModulation
焦点调制网络(简称FocalNets),其中自注意力(SA)完全由焦点调制模块取代,用于在视觉中建模标记交互。焦点调制包括三个组件:(i)焦点情境化,通过一堆深度卷积层实现,从短到长范围编码视觉上下文,(ii)门控聚合,选择性地将上下文聚集到每个查询标记的调制器中,以及(iii)逐元素仿射变换,将调制器注入查询中原创 2024-09-17 11:26:19 · 312 阅读 · 0 评论 -
YOLOv9改进,YOLOv9主干网络替换为RepViT (CVPR 2024,清华提出,独家首发),助力涨点
YOLOv9主干网络替换为RepViT,助力涨点,通过结合轻量级ViTs的架构设计,重新审视了轻量级CNNs的高效设计,最终得到了RepViT,这是一种为资源受限的移动设备设计的全新轻量级CNN家族。RepViT在多个视觉任务中超越了现有的轻量级ViTs和CNNs,表现出了优异的性能和延迟,突显了纯轻量级CNNs在移动设备上应用的广阔前景。原创 2024-09-17 11:11:03 · 1158 阅读 · 3 评论 -
YOLOv9改进,YOLOv9损失函数更换为Powerful-IoU(2024年最新IOU),助力高效涨点
边界框回归(BBR)是目标检测中的核心任务之一,BBR损失函数显著影响其性能。然而,观察到现有基于IoU的损失函数存在不合理的惩罚因子,导致回归过程中锚框扩展,并显著减缓收敛速度。为了解决这个问题,深入分析了锚框扩展的原因。针对这个问题,提出了一种新的Powerful-IoU(PIoU)损失函数,该函数结合了目标尺寸自适应惩罚因子和基于锚框质量的梯度调节函数。PIoU损失引导锚框沿着高效路径回归,收敛速度比现有基于IoU的损失函数更快。此外,还研究了聚焦机制,并引入了一种非单调注意力层。原创 2024-09-16 19:59:04 · 391 阅读 · 0 评论 -
手把手教你YOLOv9画对比图,画改进后的对比图,支持多个实验结果,写作和科研必备(全网最详细)
今天写一下YOLOv8画改进前后的对比结果图, 画损失对比图、mAP(平均精度值)对比图、recall(召回率)对比图,precision(精确率)对比图,代码已经写好了,大家只需复制粘贴即可运行。本文提供两种画法:1.合并画法:精度和损失的各项指标在一个图形窗口中显示多张子图。这个画法更加紧凑和直观,可以一次性对比多个指标。2.逐个画法:逐个绘制每个指标的图原创 2024-09-11 11:31:13 · 143 阅读 · 0 评论 -
YOLOv9改进,YOLOv9主干网络替换为MobileNetV4(2024独家首发)
MobileNetV4具有面向移动设备的通用高效架构设计。其核心是我们引入的通用倒置瓶颈(Universal Inverted Bottleneck,UIB)搜索块,这是一种统一且灵活的结构,融合了倒置瓶颈(IB)、ConvNext、前馈网络(FFN)和一种新型的额外深度卷积(ExtraDW)变体。原创 2024-09-07 22:00:00 · 99 阅读 · 0 评论 -
YOLOv9改进,YOLOv9主干网络替换为EfficientNet(独家首发)
EfficientNet论文中研究了卷积网络的缩放和,并证明对深度,宽度和分辨率复合缩放的重要性,因此精度和效率更好。为了阐述相关的原理,我们提出了简单有效的复合缩放方法,使得模型缩放具有一定设计准则,同时兼顾了模型的效率。论文地址代码地址本文在YOLOv9中的主干网络替换成EfficientNet,代码已经整理好了,跟着文章复制粘贴,即可直接运行。原创 2024-09-05 18:00:00 · 154 阅读 · 0 评论 -
YOLOv9改进,YOLOv9改进主干网络为MobileNetV2(轻量化架构)
MobileNetV2与ShuffleNet等类似,能够进一步提高性能,同时提供对其内部运作的见解。网络设计基于MobileNetV1,它保留了其简洁性,不需要任何特殊操作符,同时显著提高了其准确性,在多项移动应用的图像分类和检测任务中达到了最先进的水平。下图为不同架构的卷积块比较。ShuffleNet 使用分组卷积 和通道洗牌,并且采用了传统的残差方法,其中内部块的宽度小于输出块。论文地址本文在YOLOv9中的主干网络替换成MobileNetV2,代码已经整理好了,跟着文章复制粘贴,即可直接运行。原创 2024-09-04 14:55:15 · 230 阅读 · 0 评论 -
YOLOv9改进,YOLOv9改进主干网络为MobileNetV3(轻量化架构)
MobileNetV3,使用平台感知NAS来搜索全局网络结构,通过优化每个网络块来实现这一目标。然后,使用NetAdapt算法逐层搜索滤波器的数量。这些技术是互补的,可以结合起来有效地找到针对特定硬件平台优化的模型。通过架构搜索找到模型后,观察到一些最后几层以及一些早期层的计算成本较高。我们提出了一些架构修改,以减少这些慢层的延迟,同时保持准确性。这些修改超出了当前搜索空间的范围。第一个修改是重新设计网络的最后几层的交互方式,以更高效地产生最终特征。原创 2024-09-04 10:12:32 · 594 阅读 · 0 评论 -
yolov9训练出现WARNING TensorBoard graph visualization failure Only tensors,可视化没有结构图解决方法(亲测有效)
yolov9训练出现下面警告:WARNING TensorBoard graph visualization failure Only tensors, lists, tuples of tensors, or dictionary of tensors can be output from traced functions这句话意思就是:警告:TensorBoard图形可视化失败,仅允许从跟踪函数输出张量、张量列表、张量元组或张量字典。简单来说打开的tensorboard中的仪表盘中没有graphs原创 2024-09-03 21:30:00 · 403 阅读 · 0 评论 -
YOLOv9改进系列,YOLOv9添加GlobalContext注意力机制并与RepNCSPELAN4结构融合
GlobalContext的结构和优势:3.轻量设计:GC块设计简洁且计算量小,适合在不同网络层次中应用。4.全局上下文建模:有效捕捉图像内的全局上下文信息,提高识别精度。5.性能提升:在多种基准测试中,GCNet显示出优于NLNet和SENet的性能。通过这些创新,我们展示了如何在保持准确性的同时大幅减少计算复杂度,为全局上下文建模提供了一个更高效的解决方案。原创 2024-09-01 14:04:55 · 217 阅读 · 0 评论 -
YOLOv9改进,YOLOv9添加NAM注意力机制并与RepNCSPELAN4结构融合
我们提出了NAM作为一种高效且轻量级的注意机制。我们采用了CBAM中的模块整合方法,并重新设计了通道和空间注意子模块。然后,在每个网络块的末端嵌入NAM模块。对于残差网络,它被嵌入到残差结构的末端。我们还对空间维度应用BN的缩放因子来衡量像素的重要性。我们称之为像素归一化。对应的空间注意子模块如图2。NAM的优势1.高效性:通过使用BN的缩放因子,我们能够高效地衡量通道和像素的重要性,而不会显著增加计算复杂度。2.轻量级:NAM模块结构简单且易于嵌入现有网络架构中。原创 2024-08-31 16:14:46 · 99 阅读 · 0 评论 -
YOLOv9改进,YOLOv9添加DCNv4可变性卷积与RepNCSPELAN4结构融合(windows系统成功编译),全网最详细教程
DCNv4在DCNv3中移除了softmax归一化,将介于0和1之间的调制标量转换为类似于卷积的无界动态权重。如图所示,这种改变进一步增强了DCN的动态性质,其中其他运算符具有一定的限制,例如有界值范围或具有输入无关聚合权的固定聚合窗口(卷积)。原创 2024-08-27 17:17:49 · 349 阅读 · 0 评论 -
YOLOv9改进,YOLOv9添加DCNv3可变性卷积与RepNCSPELAN4结构融合(无需编译)
CNv3在DCNv2版本上进行了改进,在实践中,DCNv2通常用作常规卷积的扩展,加载预训练权重并进行微调,以获得更好的性能,但这并不完全适用于需要从头开始训练的大规模视觉基础模型。为了解决这个问题,DCNv3从以下几个方面扩展了DCNv2:1.在卷积神经元之间共享权重、2.引入多组机制、3.沿采样点归一化调制标量。原创 2024-08-27 20:33:09 · 134 阅读 · 1 评论 -
YOLOv9改进,YOLOv9添加BiFormer注意力机制,助力小目标检测能力
基于所提出的双层路由注意力,我们推出了一种新的通用视觉Transformer,称为BiFormer。由于BiFormer能够在查询自适应的方式中仅关注相关标记,而不受其他无关标记的干扰,因此在密集预测任务中表现出良好的性能和高计算效率原创 2024-08-24 10:00:00 · 121 阅读 · 1 评论 -
YOLOv9改进系列,YOLOv9添加MLCA注意力机制(混合局部信道注意)
为了在性能和复杂性之间取得平衡,本文提出了一种轻量级的混合局部通道注意力(MLCA)模块,以提高目标检测网络的性能。该模块能够同时结合通道信息和空间信息,以及局部信息和全局信息,从而提升网络的表示效果。原创 2024-08-23 00:03:35 · 73 阅读 · 0 评论 -
YOLOv9改进,YOLOv9添加iRMB注意力机制(反向残差注意力),实现轻量化
本文集中于开发用于密集预测的现代、高效、轻量级模型,同时在参数、FLOPs和性能之间进行权衡。反向残差块(IRB)是轻量级CNN的基础结构,但在基于注意力的研究中没有得到相应的重视。本文从统一的角度重新思考了轻量级基础结构,结合了高效的IRB和Transformer的有效组件,将基于CNN的IRB扩展到基于注意力的模型,并抽象出一个用于轻量级模型设计的单残差Meta Mobile Block(MMB)。遵循简单但有效的设计原则,我们推导出一个现代化的反向残差移动块(iRMB),并构建了一个仅使用iRMB的类原创 2024-08-21 15:23:31 · 58 阅读 · 0 评论 -
YOLOv9改进,YOLOv9添加EMA注意力机制
在各种计算机视觉任务中,通道或空间注意力机制在生成更具辨识度的特征表示方面表现出显著的效果。然而,通过通道维度减少来建模跨通道关系可能会在提取深度视觉表示时带来副作用。本文提出了一种新颖的高效多尺度注意力(EMA)模块。该模块重点在于保留每个通道的信息并降低计算开销,我们将部分通道重新排列到批次维度,并将通道维度分组为多个子特征,使得空间语义特征在每个特征组内分布均匀。原创 2024-08-14 15:55:26 · 58 阅读 · 0 评论 -
YOLOv9改进,YOLOv9添加ParNetAttention注意力机制,助力涨点
全深度是深度神经网络的标志。但更多的深度意味着更多的顺序计算和更高的延迟。ParNetAttention使用并行子网络而不是一层层叠加。这有助于在保持高性能的同时有效减少深度。原创 2024-08-08 15:20:32 · 92 阅读 · 0 评论 -
YOLOv9改进系列,YOLOv9引入DualConv(双卷积),即轻量化又高效涨点
CNN架构通常在内存和计算要求方面很重,这使得它们在硬件资源有限的嵌入式系统中不可行。我们提出了双卷积核(DualConv)来构建轻量级深度神经网络。DualConv结合了3×3和1×1的卷积核来同时处理相同的输入特征图通道,并利用组卷积技术高效地排列卷积滤波器。DualConv可以应用于任何CNN模型,如用于图像分类的VGG-16和ResNet-50、用于目标检测的YOLO和R-CNN,或用于语义分割的FCN。DualConv显著减少了深度神经网络的计算成本和参数数量,并提供模型整体精度原创 2024-08-06 09:55:54 · 191 阅读 · 0 评论 -
YOLOv9改进,YOLOv9引入SPDConv(新颖的卷积),用于低分辨率图像和小物体目标,实现大幅度涨点
卷积神经网络在许多计算机视觉任务中取得了显著成功,例如图像分类和目标检测。然而,在图像分辨率较低或目标较小的更困难任务中,它们的性能会迅速下降。在本文中,指出这根源于现有CNN架构中一个常见但有缺陷的设计,即使用了步幅卷积和/或池化层,这导致了细粒度信息的丢失以及学习到的特征表示效果较差。为了解决这个问题,提出了一种新的CNN构建模块,称为SPD-Conv,以取代每个步幅卷积层和每个池化层。SPD-Conv由一个空间到深度(SPD)层和一个非步幅卷积(Conv)层组成,可以应用于大多数CNN架构中,在低分辨原创 2024-08-05 23:24:07 · 704 阅读 · 0 评论 -
YOLOv9改进,YOLOv9引入RefConv(重新参数化再聚焦卷积),实现大幅度涨点
重参数化的重新聚焦卷积(RefConv),作为常规卷积层的替代品,它是一种即插即用的模块,可以在不引入任何推理成本的情况下提高性能。具体而言,给定一个预训练模型,RefConv将可训练的重新聚焦变换应用于从预训练模型继承的基核,以在参数之间建立连接。例如,深度方向的RefConv可以将卷积核的特定通道的参数与另一个核的参数关联起来,即让它们重新聚焦到模型的其他部分,而不是仅关注输入特征。原创 2024-08-04 23:55:06 · 98 阅读 · 0 评论 -
YOLOv9改进,YOLOv9引入ODConv(全维度动态卷积),实现大幅度涨点
在每个卷积层中学习单个静态卷积核1是现代卷积神经网络(CNN)的通用训练范式。相反,最近对动态卷积的研究表明,卷积核的加权组合及其与输入相关的注意事项可以显著提高轻量级CNN的准确性,同时保持高效推理。然而,现有的作品赋予了卷积通过一维具有动态属性的核,但其他三个维度被忽略了。受此启发,提出全维动态卷积(ODConv)。ODConv是一种新的多维注意力机制,具有并行策略学习卷积核在所有四维上的互补注意事项-任何卷积层上的核空间。原创 2024-08-04 12:24:07 · 136 阅读 · 1 评论 -
YOLOv9改进,YOLOv9添加DSConv(动态蛇形卷积),实现高效涨点
精确分割拓扑管状结构例如血管和道路,对各个领域至关重要,可确保下游任务的准确性和效率。然而,许多因素使任务变得复杂,包括细小脆弱的局部结构和复杂多变的全局形态。在这项工作中,注意到管状结构的特殊特征,并利用这一知识来引导DSCNet 在三个阶段同时增强感知:特征提取、特征融合和损失约束。首先,提出了一种动态蛇形卷积,通过自适应地聚焦于细长和曲折的局部结构,来准确捕捉管状结构的特征。随后,提出了一种多视角特征融合策略,在特征融合期间从多个角度补充对特征的关注,确保从不同全局形态中保留重要信息。原创 2024-08-03 15:58:53 · 109 阅读 · 0 评论 -
YOLOv9改进,YOLOv9添加LSK注意力机制,实现高效涨点
带有大内核注意力模块的视觉注意力网络,在一系列基于视觉的任务中,其性能明显优于视觉变换器。然而,这些 LKA 模块中的深度卷积层但是,这些 LKA 模块中的深度卷积层在计算和内存占用方面会产生四次方随着卷积核大小的增大卷积核的大小。为了缓解这些问题,并为了缓解这些问题,并在 VAN 的注意力模块中使用超大卷积核为了缓解这些问题,并在 VAN 的注意力模块中使用超大卷积核,我们提出了一系列大分离核注意力模块(Large Separa-内核注意模块,称为 LSKA。原创 2024-07-31 17:47:10 · 109 阅读 · 0 评论 -
YOLOv9改进,YOLOv9添加SCConv(空间和通道重构卷积),实现高效涨点
卷积神经网络 (CNN) 在各种计算机视觉任务中取得了卓越的表现,但这是以巨大的计算资源为代价的,部分原因是卷积层提取了冗余特征。最近的研究要么压缩训练有素的大规模模型,要么探索精心设计的轻量级模型。在本文中,我们尝试利用特征之间的空间和通道冗余进行 CNN 压缩,并提出一种高效的卷积模块,称为 SCConv(空间和通道重构卷积),以减少冗余计算并促进代表性特征学习。提出的 SCConv 由两个单元组成:空间重构单元 (SRU) 和通道重构单元 (CRU)。原创 2024-07-25 21:34:30 · 135 阅读 · 1 评论 -
YOLOv9改进,YOLOv9添加DCNv2(可变性卷积),实现高效涨点
DCNv2对原始的DCNv1进行了改进,可变形卷积网络的卓越性能源于其适应对象几何变化的能力。通过对其自适应行为的检查,虽然对其神经特征的空间支持比常规的ConvNets更接近于对象结构,但这种支持可能远远超出感兴趣区域,导致特征受到不相关图像内容的影响。为了解决这个问题,我们提出了一种可变形卷积网的重新表述,通过提高建模能力和更强的训练,提高了其专注于相关图像区域的能力。通过更全面地集成网络中的可变形卷积,并引入扩展变形建模范围的调制机制,增强了建模能力。论文地址:链接:link。原创 2024-07-24 17:58:18 · 227 阅读 · 0 评论 -
YOLOv9改进,YOLOv9添加AKConv可变卷积核,高效涨点
基于卷积操作的神经网络在深度学习领域取得了显著成果,但标准卷积操作存在两个固有缺陷。一方面,卷积操作局限于局部窗口,无法捕捉其他位置的信息,其采样形状固定。另一方面,卷积核大小固定为 k × k,形状为固定的正方形,参数数量随大小呈平方增长。显然,不同数据集和位置的目标形状和大小各异。具有固定采样形状和正方形的卷积核无法很好地适应变化的目标。针对以上问题,本文探讨了可变核卷积(AKConv),赋予卷积核任意数量的参数和任意的采样形状,以提供更丰富的选择,平衡网络开销与性能之间的权衡。原创 2024-07-24 14:14:15 · 97 阅读 · 0 评论 -
YOLOv9改进,YOLOv9添加MHSA注意力机制(多头注意力机制)并与RepNCSPELAN4结构融合
BoTNet,这是一种概念上简单但功能强大的骨干架构,它结合了MHSA意力机制,适用于图像分类、目标检测和实例分割等多种计算机视觉任务。仅通过在ResNet的最后三个瓶颈块中将空间卷积替换为MHSA注意力,不做其他任何更改,我们的方法在实例分割和目标检测上显著优于基准,同时减少了参数,延迟开销最小。论文地址代码地址本文在YOLOv9中引入MHSA注意力机制(多头注意力机制)并与RepNCSPELAN4结构融合,代码已经整理好了,跟着文章复制粘贴,即可直接运行。原创 2024-07-15 16:51:21 · 114 阅读 · 0 评论 -
YOLOv9改进,YOLOv9添加CBAM注意力机制
CBAM是一个简单而有效的注意力模块,用于前馈卷积神经网络。给定一个中间特征图,我们的模块按顺序推断两个独立维度(通道和空间)的注意力图,然后将注意力图乘以输入特征图以进行自适应特征细化。由于 CBAM 是一个轻量级的通用模块,因此它可以无缝集成到任何 CNN 架构中,开销可以忽略不计,并且可以与基础 CNN 一起进行端到端训练。论文链接:(CBAM论文)原创 2024-07-15 16:34:09 · 247 阅读 · 0 评论 -
YOLOv9改进,YOLOv9添加可变形自注意力机制(DAttention)
在本文中,提出了一种新颖的可变形自注意模块,其中键和值对在自我注意中的位置是以数据相关的方式选择。这种灵活的方案使自我关注模块能够专注于相关的区域,并捕捉更多信息特征。在此基础上,提出了可变形注意力变换器,一个具有可变形注意力的两幅图像主干模型分类和密集预测任务。DAttention注意机制理论详解可以参考链接:论文地址)原创 2024-07-12 17:11:46 · 332 阅读 · 0 评论 -
YOLOv9改进,YOLOv9添加CA注意力机制
在本文中,提出了一种新的移动网络注意力机制,将位置信息嵌入到信道注意力中称之为“协调注意力”。与渠道关注不同通过2D全局池将特征张量转换为单个特征向量,坐标注意力因子将通道注意力转化为两个1D特征编码过程,这两个过程分别沿着两个空间方向聚合特征。通过这种方式,可以沿着一个空间方向捕获长程依赖性和均值,同时可以沿着另一个空间方向。生成的特征图为然后分别编码为一对方向感知和位置敏感注意力图,其可以被完全应用于输入特征图以增加感兴趣对象的表示。原创 2024-07-12 11:50:44 · 176 阅读 · 0 评论