YOLOV5/YOLOV7/YOLOV8有效改进方式
文章平均质量分 68
YOLOV5/YOLOV7/YOLOV8有效改进方式
优惠券已抵扣
余额抵扣
还需支付
¥49.90
¥99.00
购买须知?
本专栏为图文内容,最终完结不会低于15篇文章。
订阅专栏,享有专栏所有文章阅读权限。
本专栏为虚拟商品,基于网络商品和虚拟商品的性质和特征,专栏一经购买无正当理由不予退款,不支持升级,敬请谅解。
移动开发经验汇总
"拥有十几年的开发经验,致力于创造出卓越的移动应用,改变人们的生活方式。"
展开
-
YOLOV8改进:在C2f模块不同位置添加注意力机制
本文以CBAM注意力机制为例,在c2f模块的不同位置添加注意力机制,没有用v8自带的CBAM模块,而是自己之前用过的代码。CBAM简单介绍:CBAM这是一种用于前馈卷积神经网络的简单而有效的注意模块。给定一个中间特征图,我们的模块会沿着两个独立的维度(通道和空间)依次推断注意力图,然后将注意力图乘以输入特征图以进行自适应特征修饰。由于CBAM是轻量级的通用模块,因此可以以可忽略的开销将其无缝集成到任何CNN架构中,并且可以与基础CNN一起进行端到端训练。原创 2023-10-05 12:44:55 · 765 阅读 · 0 评论 -
YOLOV7在不同位置添加CBAM注意力机制
本文以yolov7-ting.yaml为基础网络结构进行修改,尝试将CBAM注意力机制添加到不同的位置。CBAM的原理不在赘述,直接开始代码修改。原创 2023-10-05 12:45:03 · 252 阅读 · 0 评论 -
YOLOV5/YOLOV7改进:加入Repvgg并进行推理转化
Repvgg简介:理解的实质:训练时的结构对应一组参数,推理时我们想要的结构对应另一组参数;只要能把前者的参数等价转换为后者,就可以将前者的结构等价转换为后者。原创 2023-10-05 12:45:14 · 189 阅读 · 0 评论 -
YOLOv7改进:引入CVPR2023最新之作:Pconv,实现有效涨点
为了设计快速神经网络,许多工作都集中在减少浮点运算(FLOP)的数量上。然而,我们观察到FLOP的这种减少不一定会导致延迟的类似程度的减少。这主要源于每秒低浮点运算(FLOPS)效率低下。为了实现更快的网络,我们重新访问了流行的运算符,并证明了如此低的FLOPS主要是由于运算符的频繁内存访问,尤其是深度卷积。因此,我们提出了一种新的部分卷积(PConv),通过同时减少冗余计算和内存访问,可以更有效地提取空间特征。原创 2023-10-05 12:45:23 · 320 阅读 · 0 评论 -
YOLOV8改进:在C2F模块中加入RepGhost bottleneck模块
特征重用一直是轻量级卷积神经网络设计的关键技术。当前的方法通常利用级联运算符来通过重用来自其他层的特征图来廉价地保持大的信道数量(从而保持大的网络容量)。尽管级联是无参数和FLOP的,但它在硬件设备上的计算成本是不可忽略的。为了解决这一问题,本文通过结构重新参数化技术为实现特征重用提供了一个新的视角。提出了一种新的硬件高效的RepGhost模块,通过重新参数化来实现隐式特征重用,而不是使用级联运算符。基于RepGhost模块,我们开发了高效的RepGhost瓶颈和RepGhostNet。原创 2023-10-05 12:45:42 · 359 阅读 · 0 评论 -
YOLOV5改进:即插即用! | 国防科大联合慕尼黑工业大学提出新型解耦头 TSCODE: 助力目标检测器轻松涨点!
输出的相同输入特征。虽然它们使用单独的参数进行学习,以便为每个任务提供不同的特征上下文,即参数解耦,但这种简单的设计并不能从本质上解决问题。通常来说,低层特征具备更丰富的细节信息而缺乏语义信息,而高层特征则与之相反,这必然不能最大限度的发挥这种“解耦头”的优势。对于每个对象,分类属于粗粒度的戏细分任务,需要更丰富的语义上下文,而定位则相当细粒度,需要能提供更多丰富细节的边界信息。7.val.py的144行加入一行代码,如果需要使用detect.py文件,对应的stride也要修改为64,加一行代码即可。原创 2023-10-05 12:45:50 · 152 阅读 · 0 评论 -
YOLOV8改进:在c2f模块中的不同位置加入NAMAAttention注意力机制
注意力机制是近年来研究的热点之一(Wang et al。[2017],Hu等人[2018],Park等人[2018]、Woo等人[2018]和Gao等人[199])。它有助于深度神经网络抑制不太显著的像素或通道。许多先前的研究都侧重于通过注意操作捕捉显著特征(Zhang等人[2020],Misra等人[2021年])。这些方法成功地利用了来自不同维度特征的相互信息。然而,它们缺乏对权重的贡献因素的考虑,这能够进一步抑制不重要的通道或像素。受Liu等人的启发。原创 2023-10-05 12:46:26 · 194 阅读 · 0 评论 -
YOLOV5/YOLOV7/YOLOV8改进:InceptionNeXt: 当 Inception 遇上 ConvNeXt
1.论文介绍回顾深度学习的历史,卷积神经网络 (CNN) 无疑是计算机视觉中最受欢迎的模型。2012年,AlexNet 在 ImageNet 竞赛中获胜,开启了 CNN 在深度学习特别是计算机视觉领域的新时代。从那时起,众多的 CNN 已经成为潮流的引领者,如 Network In Network,VGG,Inception Nets,ResNe(X)t,DenseNet 等。原创 2023-10-05 12:45:56 · 147 阅读 · 0 评论 -
YOLOv5改进:在C3模块的不同位置添加BiFormer
为了缓解多头自注意力()的可扩展性问题,先前的一些方法提出了不同的稀疏注意力机制,其中每个查询只关注少量的键值对,而非全部。为此,作者探索了一种动态的、查询感知的稀疏注意力机制,其关键思想是在粗糙区域级别过滤掉大部分不相关的键值对,以便只保留一小部分路由区域(这不就把冗余的信息干掉了吗老铁们)。其次,作者在这些路由区域的联合中应用细粒度的注意力。原创 2023-10-05 12:46:43 · 355 阅读 · 0 评论 -
YOLOv8改进:在C2f不同位置加入Biformer
为了缓解多头自注意力()的可扩展性问题,先前的一些方法提出了不同的稀疏注意力机制,其中每个查询只关注少量的键值对,而非全部。为此,作者探索了一种动态的、查询感知的稀疏注意力机制,其关键思想是在粗糙区域级别过滤掉大部分不相关的键值对,以便只保留一小部分路由区域(这不就把冗余的信息干掉了吗老铁们)。其次,作者在这些路由区域的联合中应用细粒度的注意力。原创 2023-10-05 12:45:32 · 261 阅读 · 0 评论 -
YOLOv7改进:在不同位置添加biformer
为了缓解多头自注意力()的可扩展性问题,先前的一些方法提出了不同的稀疏注意力机制,其中每个查询只关注少量的键值对,而非全部。为此,作者探索了一种动态的、查询感知的稀疏注意力机制,其关键思想是在粗糙区域级别过滤掉大部分不相关的键值对,以便只保留一小部分路由区域(这不就把冗余的信息干掉了吗老铁们)。其次,作者在这些路由区域的联合中应用细粒度的注意力。本文以yolov7-tiny.yaml为基础网络结构进行修改,尝试将注意力机制添加到不同的位置。CBAM的原理不在赘述,直接开始代码修改。原创 2023-10-06 11:06:18 · 263 阅读 · 0 评论 -
有效涨点:YOLOV5/YOLOV7/YOLOV8改进——DSConv替换标准卷积
卷积神经网络已被证明在计算机视觉中传统的艰巨任务中是成功的,例如图像分类和。随着AlexNet的突破,ILSVRC中创建了许多新的拓扑来实现高精度。此类网络的成功不仅将注意力转移到如何做到这一点上,而且还转移到了它运行的速度和记忆效率上。这些模型以具有数百万个参数而闻名,即使使用GPU,它也需要更多的计算时间和比许多应用程序所需的更多的存储空间。运行卷积神经网络时所需的大部分内存和计算工作都花在了卷积层中,例ResNet50超过90%的时间/内存。原创 2023-10-06 11:06:32 · 470 阅读 · 0 评论 -
YOLOV5/V7/V8改进:添加CARAFE: 轻量级通用上采样算子
特征上采样是许多现代卷积网络体系结构中的一个关键操作,例如特征金字塔。它的设计对于目标检测和语义/实例分割等密集的预测任务至关重要。在这项工作中,我们提出了内容感知的特征重组(CARAFE),一个通用的、轻量级的和高效的操作符来实现这一目标。CARAFE有几个吸引人的特性: (1)大视野。与以前只利用亚像素邻域的工作(例如双线性插值)不同,CARAFE可以在一个大的接受域内聚合上下文信息。(2)具有内容感知的处理。原创 2023-10-05 12:46:03 · 392 阅读 · 0 评论 -
YOLOV7改进:在不同位置添加CoordAtt注意力机制
本文以yolov7-ting.yaml为基础网络结构进行修改,尝试将CoordAtt注意力机制添加到不同的位置。CBAM的原理不在赘述,直接开始代码修改。原创 2023-10-05 12:46:10 · 139 阅读 · 0 评论 -
YOLOV5改进:顶刊TIP 2023 | CFP:即插即用的多尺度融合模块,有效涨点!
的物体检测方法,本文方法基于全局显式的中心特征调节。与现有的方法不同,本文方法不仅关注不同层之间的特征交互,还考虑了同一层内的特征调节,该调节在密集预测任务中被证明是有益的。则依赖于自下而上的特征金字塔结构,通过建立自上而下的路径和横向连接从多尺度高级语义特征图中获取特征信息。提出了一种额外的自下而上路径,使高级特征图也可以从低级特征图中获得足够的细节信息。通过构建多阶段特征金字塔来提取多阶段和多尺度的特征,实现了跨层级和跨层特征融合。是最早使用特征金字塔结构表示多尺度特征信息的方法之一,原创 2023-10-05 12:46:33 · 312 阅读 · 0 评论 -
YOLOV8改进:顶刊TIP 2023 | CFP:即插即用的多尺度融合模块,有效涨点!
与现有的方法不同,本文方法不仅关注不同层之间的特征交互,还考虑了同一层内的特征调节,该调节在密集预测任务中被证明是有益的。则依赖于自下而上的特征金字塔结构,通过建立自上而下的路径和横向连接从多尺度高级语义特征图中获取特征信息。提出了一种额外的自下而上路径,使高级特征图也可以从低级特征图中获得足够的细节信息。通过构建多阶段特征金字塔来提取多阶段和多尺度的特征,实现了跨层级和跨层特征融合。特征金字塔网络现代识别系统中的一种基础网络结构,可有效地用于检测不同尺度的物体。和用于汇集局部关键区域的可学习视觉中心。原创 2023-10-06 11:06:40 · 352 阅读 · 0 评论 -
YOLOV5/YOLOV8改进:CVPR 2022 |EfficientViT:轻量级多尺度关注设备上语义分割
语义分割使许多吸引人的现实世界的应用,如计算摄影,自动驾驶等。然而,巨大的计算成本使得在硬件有限的边缘设备上部署最先进的语义分割模型成为可能资源困难。这项工作提出了高效率,a一种新的语义分割模型设备语义的轻量级多尺度关注分割。不像以前的语义分割模型依赖于大量的自关注,硬件效率低下为了获得良好的性能,我们的轻量级多尺度注意力在轻量级和硬件效率的前提下实现了全局接受场和多尺度学习(语义分割模型的两个关键特征)操作。原创 2023-10-05 12:46:18 · 165 阅读 · 0 评论 -
YOLOV5/YOLOV8改进:CVPR23:加入ConvNeXt V2主干,有效涨点
论文地址:在改进的架构和更好的表示学习框架的推动下,视觉识别领域在20世纪20年代初实现了快速现代化和性能提升。例如,以ConvNeXt[52]为代表的现代ConvNets在各种场景中都表现出了强大的性能。虽然这些模型最初是为使用ImageNet标签进行监督学习而设计的,但它们也可能受益于自监督学习技术,如掩蔽自动编码器(MAE)。然而,我们发现,简单地将这两种方法结合起来会导致较差的性能。原创 2023-10-06 11:06:48 · 300 阅读 · 0 评论 -
YOLOV8改进:CVPR 2023 | 在C2f模块不同位置添加EMA注意力机制,有效涨点
显著的渠道或空间有效性注意力产生机制更加可辨特征表示用各种计算机进行了说明视觉任务。然而,跨通道建模关系与通道降维可能在提取深度视觉表征时带来副作用。本文提出了一种新的高效多尺度注意力(EMA)方法。模块提出。专注于保留信息每个通道上,并减少计算在上方,我们将部分通道重塑为批处理尺寸并将通道尺寸分组为多个子特征构成空间语义特性在每个特性组中分布良好。具体来说,除了将全局信息编码到重新校准每个平行通道的权重支路,两个并联支路的输出特征为的跨维度交互进一步聚合捕获像素级成对关系。原创 2023-10-06 11:06:58 · 199 阅读 · 0 评论 -
YOLOV5改进:CVPR 2023 | 在C3块不同位置添加EMA注意力机制,有效涨点
显著的渠道或空间有效性注意力产生机制更加可辨特征表示用各种计算机进行了说明视觉任务。然而,跨通道建模关系与通道降维可能在提取深度视觉表征时带来副作用。本文提出了一种新的高效多尺度注意力(EMA)方法。模块提出。专注于保留信息每个通道上,并减少计算在上方,我们将部分通道重塑为批处理尺寸并将通道尺寸分组为多个子特征构成空间语义特性在每个特性组中分布良好。具体来说,除了将全局信息编码到重新校准每个平行通道的权重支路,两个并联支路的输出特征为的跨维度交互进一步聚合捕获像素级成对关系。原创 2023-10-06 11:07:05 · 456 阅读 · 0 评论 -
YOLOV7改进:CVPR 2023 | 在C5模块不同位置添加EMA注意力机制,有效涨点
显著的渠道或空间有效性注意力产生机制更加可辨特征表示用各种计算机进行了说明视觉任务。然而,跨通道建模关系与通道降维可能在提取深度视觉表征时带来副作用。本文提出了一种新的高效多尺度注意力(EMA)方法。模块提出。专注于保留信息每个通道上,并减少计算在上方,我们将部分通道重塑为批处理尺寸并将通道尺寸分组为多个子特征构成空间语义特性在每个特性组中分布良好。具体来说,除了将全局信息编码到重新校准每个平行通道的权重支路,两个并联支路的输出特征为的跨维度交互进一步聚合捕获像素级成对关系。原创 2023-10-06 11:07:17 · 251 阅读 · 0 评论 -
YOLOV5/YOLOV8改进:2023 :华为诺亚提出VanillaNet主干网络
基础模型的核心是“越多越好”的哲学,计算机视觉和自然语言处理领域的惊人成功就是例证。然而,优化的挑战和变压器模型固有的复杂性要求范式向简单性转变。在这项研究中,我们介绍了V anillaNet,一种在设计中融入优雅的神经网络架构。通过避免高深度、快捷方式和自我关注等复杂操作,V anillaNet简洁而强大。每一层都经过精心制作,紧凑而直接,在训练后对非线性激活函数进行修剪,以恢复原始架构。V anillaNet克服了固有复杂性的挑战,使其成为资源受限环境的理想选择。原创 2023-10-06 11:07:24 · 166 阅读 · 1 评论 -
YOLOV5/YOLOV8改进:更换Next-vit主干:用于现实工业场景的下一代视觉 Transformer
由于复杂的注意机制和模型设计,大多数现有的视觉变形器(vit)不能像卷积神经网络(cnn)那样高效地执行任务。在实际的工业部署场景中,例如TensorRT和CoreML。这就提出了一个明显的挑战:视觉神经网络能否设计得像cnn一样快并像vit一样强大吗?在这些工作中,我们提出了在现实工业场景中有效部署的下一代视觉变压器,即next - vit,从延迟/精度权衡的角度来看,它在cnn和vit中都占主导地位。原创 2023-10-06 11:07:32 · 106 阅读 · 0 评论 -
YOLOV8改进:添加Wiseiou,有效涨点
【代码】YOLOV8改进:添加Wiseiou,有效涨点。原创 2023-10-06 11:07:39 · 386 阅读 · 0 评论 -
YOLOV5改进:添加Wiseiou,有效涨点
【代码】YOLOV5改进:添加Wiseiou,有效涨点。原创 2023-10-06 11:07:46 · 219 阅读 · 0 评论 -
YOLOV8改进:在C2f模块中添加RepGhostBottleneck模块,有效涨点
特征重用是轻量卷积神经网络设计的关键技术。当前的方法通常利用连接运算符通过重用其他层的特征映射来廉价地保持大通道数(从而增加网络容量)。虽然连接不需要参数和flops,但它在硬件设备上的计算成本是不可忽略的。针对这一问题,本文提出了利用结构重参数化技术实现特征重用的新思路。提出了一种新的硬件高效的RepGhost模块,通过重新参数化来实现隐式特征重用,而不是使用连接操作符。基于RepGhost模块,我们开发了高效的RepGhost瓶颈和RepGhostNet。原创 2023-10-06 11:07:53 · 670 阅读 · 0 评论 -
YOLOV8改进:加入对硬件友好的QARepVGG,有效涨点!
在ultralytics/nn/tasks.py的def parse_model函数中注册。原创 2023-10-06 11:08:02 · 165 阅读 · 0 评论 -
YOLOV8改进:CVPR2023:加入EfficientViT主干:具级联组注意力的访存高效ViT
视觉变压器由于其高模型能力而取得了巨大的成功。然而,它们卓越的性能伴随着沉重的计算成本,这使得它们不适合实时应用。在这篇论文中,我们提出了一个高速视觉变压器家族,名为EfficientViT。我们发现现有的变压器模型的速度通常受到内存低效操作的限制,特别是在MHSA中的张量重塑和单元函数。因此,我们设计了一种具有三明治布局的新构建块,即在高效FFN层之间使用单个内存绑定的MHSA,从而提高了内存效率,同时增强了信道通信。此外,我们发现注意图在头部之间具有很高的相似性,从而导致计算冗余。原创 2023-10-06 11:08:09 · 288 阅读 · 0 评论 -
YOLOV8改进:在C2f模块不同位置添加GAM注意力机制,有效涨点!
人们研究了多种注意机制来提高其表现各种计算机视觉任务。然而,先前的方法忽略了保留信息的意义在于渠道和空间两个方面加强跨维度互动。因此,我们提出了一种全局注意力机制,通过减少深度神经网络的注意力来提高深度神经网络的性能信息缩减,放大全局交互表征。我们引入了多层感知器的三维排列,沿边的通道注意卷积空间注意子模块。对提议的评价CIFAR-100和ImageNet-1K上图像分类任务的机制表明我们的方法稳定地优于最近的几种注意力机制ResNet和轻量级MobileNet。原创 2023-10-06 11:08:16 · 260 阅读 · 1 评论 -
YOLOV8改进:CVPR 2023 | SCConv: 即插即用的空间和通道重建卷积
1.该文章属于YOLOV5/YOLOV7/YOLOV8改进专栏,包含大量的改进方式,主要以2023年的最新文章和2022年的文章提出改进方式。2.提供更加详细的改进方法,如将注意力机制添加到网络的不同位置,便于做实验,也可以当做论文的创新点。2.涨点效果:添加 SCConv,经过测试,有效涨点。卷积神经网络(cnn)在各种计算机视觉任务中取得了显著的性能,但这是以巨大的计算资源为代价的,部分原因是卷积层提取冗余特征。最近的作品要么压缩训练有素的大型模型,要么探索设计良好的轻量级模型。原创 2023-10-05 12:44:35 · 185 阅读 · 0 评论 -
YOLOv5改进:CVPR 2023 | SCConv: 即插即用的空间和通道重建卷积
1.该文章属于YOLOV5/YOLOV7/YOLOV8改进专栏,包含大量的改进方式,主要以2023年的最新文章和2022年的文章提出改进方式。2.提供更加详细的改进方法,如将注意力机制添加到网络的不同位置,便于做实验,也可以当做论文的创新点。2.涨点效果:添加 SCConv,经过测试,有效涨点。卷积神经网络(cnn)在各种计算机视觉任务中取得了显著的性能,但这是以巨大的计算资源为代价的,部分原因是卷积层提取冗余特征。最近的作品要么压缩训练有素的大型模型,要么探索设计良好的轻量级模型。原创 2023-10-04 15:12:19 · 376 阅读 · 0 评论 -
YOLOv7改进:CVPR 2023 | SCConv: 即插即用的空间和通道重建卷积
1.该文章属于YOLOV5/YOLOV7/YOLOV8改进专栏,包含大量的改进方式,主要以2023年的最新文章和2022年的文章提出改进方式。2.提供更加详细的改进方法,如将注意力机制添加到网络的不同位置,便于做实验,也可以当做论文的创新点。2.涨点效果:添加 SCConv,经过测试,有效涨点。卷积神经网络(cnn)在各种计算机视觉任务中取得了显著的性能,但这是以巨大的计算资源为代价的,部分原因是卷积层提取冗余特征。最近的作品要么压缩训练有素的大型模型,要么探索设计良好的轻量级模型。原创 2023-10-04 15:11:47 · 240 阅读 · 0 评论 -
YOLOV8改进:更换PoolFormer主干网络
1.该文章属于YOLOV5/YOLOV7/YOLOV8改进专栏,包含大量的改进方式,主要以2023年的最新文章和2022年的文章提出改进方式。2.提供更加详细的改进方法,如将注意力机制添加到网络的不同位置,便于做实验,也可以当做论文的创新点。2.涨点效果:添加PoolFormer主干,有效涨点。Transformer已经在计算机视觉中展现了巨大的潜力,一个常见的观念是视觉Transformer之所以取得如此不错的效果主要是由于基于self-attention的token mixer模块。原创 2023-10-04 15:11:11 · 548 阅读 · 0 评论 -
YOLOV5改进:更换为MPDIOU,实现有效涨点
1.该文章属于YOLOV5/YOLOV7/YOLOV8改进专栏,包含大量的改进方式,主要以2023年的最新文章和2022年的文章提出改进方式。2.提供更加详细的改进方法,如将注意力机制添加到网络的不同位置,便于做实验,也可以当做论文的创新点。2.涨点效果:更换为MPDIOU,实现有效涨点!边界盒回归(Bounding box regression, BBR)广泛应用于目标检测和实例分割,是目标定位的重要步骤。原创 2023-10-04 15:10:34 · 224 阅读 · 0 评论 -
YOLOV7改进:更换为MPDIOU,实现有效涨点
1.该文章属于YOLOV5/YOLOV7/YOLOV8改进专栏,包含大量的改进方式,主要以2023年的最新文章和2022年的文章提出改进方式。2.提供更加详细的改进方法,如将注意力机制添加到网络的不同位置,便于做实验,也可以当做论文的创新点。2.涨点效果:更换为MPDIOU,实现有效涨点!边界盒回归(Bounding box regression, BBR)广泛应用于目标检测和实例分割,是目标定位的重要步骤。原创 2023-10-04 15:10:02 · 250 阅读 · 0 评论 -
YOLOV8改进:加入RCS-OSA模块,提升检测速度
凭借速度和精度之间的良好平衡,前沿的YOLO框架已成为最有效的目标检测算法之一。然而,使用YOLO网络在脑肿瘤检测中的性能研究很少。提出了一种新的基于信道Shuffle的重参数化卷积YOLO架构(RCS-YOLO)。我们提出了RCS和RCS的一次聚合(RCS- osa),将特征级联和计算效率联系起来,以提取更丰富的信息并减少时间消耗。在脑肿瘤数据集Br35H上的实验结果表明,该模型在速度和精度上均优于YOLOv6、YOLOv7和YOLOv8。原创 2023-10-04 15:09:23 · 879 阅读 · 0 评论 -
YOLOV7改进:加入RCS-OSA模块,提升检测速度
凭借速度和精度之间的良好平衡,前沿的YOLO框架已成为最有效的目标检测算法之一。然而,使用YOLO网络在脑肿瘤检测中的性能研究很少。提出了一种新的基于信道Shuffle的重参数化卷积YOLO架构(RCS-YOLO)。我们提出了RCS和RCS的一次聚合(RCS- osa),将特征级联和计算效率联系起来,以提取更丰富的信息并减少时间消耗。在脑肿瘤数据集Br35H上的实验结果表明,该模型在速度和精度上均优于YOLOv6、YOLOv7和YOLOv8。原创 2023-10-04 15:08:47 · 108 阅读 · 0 评论 -
YOLOV5改进:加入RCS-OSA模块,提升检测速度
凭借速度和精度之间的良好平衡,前沿的YOLO框架已成为最有效的目标检测算法之一。然而,使用YOLO网络在脑肿瘤检测中的性能研究很少。提出了一种新的基于信道Shuffle的重参数化卷积YOLO架构(RCS-YOLO)。我们提出了RCS和RCS的一次聚合(RCS- osa),将特征级联和计算效率联系起来,以提取更丰富的信息并减少时间消耗。在脑肿瘤数据集Br35H上的实验结果表明,该模型在速度和精度上均优于YOLOv6、YOLOv7和YOLOv8。原创 2023-10-04 15:08:10 · 472 阅读 · 1 评论 -
YOLOV7改进:更换WIOU,实现无损涨点
边界盒回归(BBR)的损失函数是目标检测的关键。它的良好定义将为模型带来显著的性能改进。现有的大部分工作都假设训练数据中的样例是高质量的,并着重于增强BBR损失的拟合能力。如果盲目地在低质量样本上加强BBR,将会危及本地化性能。Focal-EIoU v1是为了解决这一问题而提出的,但由于其静态调焦机制(FM),使得非单调调频的潜力没有得到充分发挥。基于这一思想,我们提出了一种基于iou的动态非单调调频损耗,称为Wise-IoU (WIoU)。原创 2023-10-04 15:07:34 · 487 阅读 · 0 评论 -
YOLOV8改进:更换为MPDIOU,实现有效涨点
边界盒回归(Bounding box regression, BBR)广泛应用于目标检测和实例分割,是目标定位的重要步骤。然而,当预测框与groundtruth盒具有相同的纵横比,但宽度和高度值完全不同时,大多数现有的边界盒回归损失函数都无法优化。为了解决上述问题,我们充分挖掘水平矩形的几何特征,提出了一种新的基于最小点距离的边界盒相似性比较度量MPDIoU,该度量包含了现有损失函数中考虑的所有相关因素,即重叠或不重叠区域、中心点距离、宽度和高度偏差,同时简化了计算过程。原创 2023-10-04 15:06:36 · 340 阅读 · 0 评论