赋能医学影像,AI助力智能化辅助诊断,基于YOLO家族最新端到端实时算法YOLOv10全系列【n/s/m/b/l/x】参数模型开发构建磁共振成像、CT扫描场景下医学图像脑肿瘤检测识别系统

在医学的浩瀚星空中,肿瘤与癌症等复杂疾病如同夜空中最难以捉摸的星辰,它们的发现与诊断往往依赖于高精度、高灵敏度的医学影像技术,如核磁共振(MRI)和计算机断层扫描(CT)等。这些技术如同现代医学的“火眼金睛”,能够穿透人体,揭示出隐藏在内部的疾病秘密。然而,传统的医学影像分析却面临着诸多挑战:高度依赖专家的主观判断、经验门槛高、分析过程耗时耗力,以及时效性不足等问题,这些都成为了制约医疗服务质量与效率提升的瓶颈。

随着人工智能(AI)技术的飞速发展,一场深刻的医疗变革正在悄然发生。AI以其强大的数据处理能力、学习能力和模式识别能力,为医学影像分析带来了前所未有的机遇。在医学影像领域,AI技术的应用不仅有望解决上述难题,更将推动疾病诊断向更加精准、高效、智能的方向迈进。医学影像数据是医疗大数据的重要组成部分,其海量、多维、复杂的特点为AI模型的训练提供了丰富的素材。通过深度学习等先进算法,AI可以从海量的影像数据中学习并提取出疾病特有的特征模式,进而构建出智能化的检测识别模型。这些模型能够自动分析影像,快速准确地识别出异常区域,为医生提供初步的诊断建议,极大地提高了诊断的效率和准确性。AI在医学影像分析中的应用,使得医生能够借助智能系统快速筛选出疑似病例,减轻了他们的工作负担,同时也降低了人为因素导致的误诊和漏诊风险。医生可以将更多精力集中在复杂病例的深入分析和治疗方案的制定上,从而提高了整体医疗服务的质量。此外,AI系统的实时性和远程服务能力,使得患者能够更快地获得诊断结果,尤其是对于偏远地区的患者而言,这无疑是巨大的福音。

本文从这样的背景出发,想要基于基础的实验尝试来开发构建医学影像场景下的智能化检测识别模型,在前面的系列博文中我们已经进行了相关的开发实践,感兴趣的话可以自行移步阅读即可:

《赋能医学影像,AI助力智能化辅助诊断,基于YOLOv3全系列【yolov3tiny/yolov3/yolov3spp】参数模型开发构建磁共振成像、CT扫描场景下医学图像脑肿瘤检测识别系统》

《赋能医学影像,AI助力智能化辅助诊断,基于YOLOv5全系列【n/s/m/l/x】参数模型开发构建磁共振成像、CT扫描场景下医学图像脑肿瘤检测识别系统》

《赋能医学影像,AI助力智能化辅助诊断,基于YOLOv7全系列【tiny/l/x】参数系列模型开发构建磁共振成像、CT扫描场景下医学图像脑肿瘤检测识别系统》

《赋能医学影像,AI助力智能化辅助诊断,基于YOLOv8全系列【n/s/m/l/x】参数模型开发构建磁共振成像、CT扫描场景下医学图像脑肿瘤检测识别系统》

《赋能医学影像,AI助力智能化辅助诊断,基于YOLOv9【yolov9/t/s/m/c/e】+GELAN【gelan/t/s/m/c/e】全系列参数模型构建磁共振成像CT扫描场景下医学图像脑肿瘤检测系统》

本文则是想要基于YOLO系列最新发表的端到端实时目标检测模型YOLOv10来进行开发实践,首先看下实例效果:

实例数据如下:

官方发表了对于最新研究成果YOLOv10的论文,前面我做了简单的翻译阅读,感兴趣的话可以看下,有需要的话可以阅读官方英文论文即可:

《卷出新高度,直呼太强!时隔三月,YOLO再度进化升级:《YOLOv10—实时端到端目标检测》重磅来袭》

如果想要基于最新发表的YOLOv10从零开始开发构建自己的个性化目标检测系统,可以参照这里:

《基于最新发表的端到端实时目标检测模型YOLOv10开发构建自己的个性化目标检测系统从零构建模型完整训练、推理计算超详细教程【以自建数据远红外场景下的低空无人机目标检测为例】》

在过去的几年里,YOLOs由于其在计算成本和检测性能之间的有效平衡,已成为实时目标检测领域的主导范式。研究人员探索了YOLO的架构设计、优化目标、数据扩充策略等,取得了显著进展。然而,依赖非极大值抑制(NMS)进行后处理阻碍了YOLO的端到端部署,并对推理延迟产生不利影响。此外,YOLOs中各种组件的设计缺乏全面彻底的检查,导致明显的计算冗余,限制了模型的能力。它提供了次优的效率,以及相当大的性能改进潜力。YOLOv10致力于打造实时端到端的高性能目标检测器,从效率和精度两个角度对YOLO的各个组件进行了全面优化,大大减少了计算开销,增强能力,目标是从后处理和模型架构两个方面进一步提高YOLO的性能效率边界。为此,首先提出了YOLOs无NMS训练的一致双重分配,它同时带来了有竞争力的性能和低推理延迟。此外还介绍了YOLO的整体效率精度驱动模型设计策略。

基于上述的分析研究作者提出了几点改进策略:
1、一致优化目标的无NMS双标签分配策略
YOLOs引入了双标签分配,以结合这两种策略的优点。核心思想是在训练阶段使用一对多的检测头提供更多的正样本来丰富模型的训练,为YOLOs合并了另一个一对一的头部。它保留了与原始一对多分支相同的结构并采用相同的优化目标,但利用一对一匹配来获得标签分配。在训练过程中,两个头与模型联合优化,使骨干和颈部享受一对多任务提供的丰富监督。在推理过程中丢弃一对多的头利用一对一的头进行预测。这使得YOLOs能够进行端到端部署,而不会产生任何额外的推断成本。
2、整体效率-精度驱动的模型架构设计
虽然之前的工作探索了各种各样的设计策略,但仍然缺乏对YOLOs中各种组件的全面检查。模型体系结构具有不可忽略的计算冗余和受限能力阻碍了实现高效率和高性能的潜力。在这里目标是从效率和准确性的角度为YOLOs整体地执行模型设计——效率驱动的模型设计。YOLO中的组件包括stem、下采样层、具有基本构建块的阶段和头部。stem产生的计算成本很少,因此主要对其他三个部分执行效率驱动的模型设计。

【执行效率驱动的模型设计】
A、 轻型分类头。在YOLOs中,分类和回归头通常共享相同的体系结构。然而,它们在计算开销方面表现出显著的差异。在分析分类误差和回归误差的影响后发现回归头对YOLOs的性能有更大的影响。故而可以减少分类头的开销而不必担心会严重影响分类头的性能。因此作者简单地采用了一种轻量级的分类头结构,它由两个深度可分离的卷积组成核大小为3×3然后是一个1×1卷积。
B、空间通道解耦下采样。引入空间-通道解耦下采样减少计算冗余,提高整体模型效率。
C、 秩引导块设计。为了彻底检查YOLOs的同质设计利用内在秩来分析每个阶段的冗余。作者计算每个阶段最后一个基本块中最后一个卷积的数值秩,计算大于阈值的奇异值的数量。结果表明深部阶段和大型模型易于显示更多冗余。简单地对所有阶段应用相同的块设计对于最佳容量效率权衡是次优的。为了解决这一问题提出了一种秩引导块设计方案,该方案旨在使用紧凑的体系结构设计来降低冗余阶段的复杂性。首先提出了一种紧凑的反向块(CIB)结构,它采用廉价的深度卷积进行空间混合,并采用经济高效的逐点卷积进行信道混合,它可以作为有效的基本构建块,然后提出了一种等级引导的区块分配策略,以实现最佳效率,同时保持竞争力。根据其内在的等级按升序对其所有阶段进行排序。并进一步考察了用CIB替代前级基本块的性能变化。如果与给定模型相比没有性能下降,则继续替换下一阶段,否则停止该过程。因此,我们可以实现跨阶段和模型规模的自适应紧凑块设计,在不影响性能的情况下实现更高的效率。

【精度驱动模型设计】
D、 大内核卷积。采用大核深度卷积是扩大感受野和增强模型能力的有效方法,但在所有阶段简单地利用可能会在用于检测小对象的浅层特征中引入污染,同时也会在高分辨率阶段引入显著的I/O开销和延迟。因此建议在深度阶段利用CIB中的大内核深度卷积。将CIB中第二个3×3深度卷积的核大小增加到7×7,此外采用结构重参数化技术在不增加推理开销的情况下,引入另一个3×3深度卷积分支,以缓解优化问题。此外随着模型尺寸的增加,它的感受野自然扩大,使用大核卷积的好处逐渐减少。因此对于小模型尺度,我们只采用大核卷积。
E、 部分自我注意(PSA)。自我注意由于其卓越的全局建模能力被广泛应用于各种视觉任务中。然而它具有很高的计算复杂度和内存占用。为了解决这一问题,鉴于普遍存在的注意头冗余提出了一种有效的部分自我注意(PSA)模块设计,在1×1卷积之后,我们将跨通道的特征均匀地划分为两部分只将一部分反馈到由多头部自我注意模块(MHSA)和前馈网络(FFN)组成的NPSA模块中。然后将两部分串联起来,通过1×1卷积进行融合。此外,将查询和键的维数指定为MHSA中值的一半,并将LayerForm替换为BatchNorm以实现快速推理。PSA仅放置在具有最低分辨率的第4阶段之后,避免了由于自我注意的二次计算复杂性而产生的过多开销。这样实现了以较低的计算代价将全局表示学习能力融入到YOLOs中,从而很好地增强了模型的能力,提高了模型的性能。

训练数据配置文件内容如下:

# Dataset
path: ./dataset
train:
  - images/train
val:
  - images/test
test:
  - images/test
 
 
 
# Classes
names:
  0: negative
  1: positive

目前清华官方研究团队一共发布的了包括:N/S/M/B/L/X在内的六款不同参数量级的模型,基于COCO数据集进行了训练,官方提供的预训练权重如下:

ModelTest Size#ParamsFLOPsAPvalLatency
YOLOv10-N6402.3M6.7G38.5%1.84ms
YOLOv10-S6407.2M21.6G46.3%2.49ms
YOLOv10-M64015.4M59.1G51.1%4.74ms
YOLOv10-B64019.1M92.0G52.5%5.74ms
YOLOv10-L64024.4M120.3G53.2%7.28ms
YOLOv10-X64029.5M160.4G54.4%10.70ms

可以根据自己的实际需要进行下载使用,建议一般训练自己的数据集的时候最好是可以基于官方提供的预训练权重来进行迁移训练,这样更理想一些。

这里我们一共应用开发训练了六款模型,如下:

【yolov10n】

# Parameters
nc: 2   # number of classes
scales: # model compound scaling constants, i.e. 'model=yolov8n.yaml' will call yolov8.yaml with scale 'n'
  # [depth, width, max_channels]
  s: [0.33, 0.50, 1024]
 
backbone:
  # [from, repeats, module, args]
  - [-1, 1, Conv, [64, 3, 2]] # 0-P1/2
  - [-1, 1, Conv, [128, 3, 2]] # 1-P2/4
  - [-1, 3, C2f, [128, True]]
  - [-1, 1, Conv, [256, 3, 2]] # 3-P3/8
  - [-1, 6, C2f, [256, True]]
  - [-1, 1, SCDown, [512, 3, 2]] # 5-P4/16
  - [-1, 6, C2f, [512, True]]
  - [-1, 1, SCDown, [1024, 3, 2]] # 7-P5/32
  - [-1, 3, C2fCIB, [1024, True, True]]
  - [-1, 1, SPPF, [1024, 5]] # 9
  - [-1, 1, PSA, [1024]] # 10
 
# YOLOv8.0n head
head:
  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [[-1, 6], 1, Concat, [1]] # cat backbone P4
  - [-1, 3, C2f, [512]] # 13
 
  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [[-1, 4], 1, Concat, [1]] # cat backbone P3
  - [-1, 3, C2f, [256]] # 16 (P3/8-small)
 
  - [-1, 1, Conv, [256, 3, 2]]
  - [[-1, 13], 1, Concat, [1]] # cat head P4
  - [-1, 3, C2f, [512]] # 19 (P4/16-medium)
 
  - [-1, 1, SCDown, [512, 3, 2]]
  - [[-1, 10], 1, Concat, [1]] # cat head P5
  - [-1, 3, C2fCIB, [1024, True, True]] # 22 (P5/32-large)
 
  - [[16, 19, 22], 1, v10Detect, [nc]] # Detect(P3, P4, P5)

【yolov10s】

# Parameters
nc: 2  # number of classes
scales: # model compound scaling constants, i.e. 'model=yolov8n.yaml' will call yolov8.yaml with scale 'n'
  # [depth, width, max_channels]
  s: [0.33, 0.50, 1024]
 
backbone:
  # [from, repeats, module, args]
  - [-1, 1, Conv, [64, 3, 2]] # 0-P1/2
  - [-1, 1, Conv, [128, 3, 2]] # 1-P2/4
  - [-1, 3, C2f, [128, True]]
  - [-1, 1, Conv, [256, 3, 2]] # 3-P3/8
  - [-1, 6, C2f, [256, True]]
  - [-1, 1, SCDown, [512, 3, 2]] # 5-P4/16
  - [-1, 6, C2f, [512, True]]
  - [-1, 1, SCDown, [1024, 3, 2]] # 7-P5/32
  - [-1, 3, C2fCIB, [1024, True, True]]
  - [-1, 1, SPPF, [1024, 5]] # 9
  - [-1, 1, PSA, [1024]] # 10
 
# YOLOv8.0n head
head:
  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [[-1, 6], 1, Concat, [1]] # cat backbone P4
  - [-1, 3, C2f, [512]] # 13
 
  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [[-1, 4], 1, Concat, [1]] # cat backbone P3
  - [-1, 3, C2f, [256]] # 16 (P3/8-small)
 
  - [-1, 1, Conv, [256, 3, 2]]
  - [[-1, 13], 1, Concat, [1]] # cat head P4
  - [-1, 3, C2f, [512]] # 19 (P4/16-medium)
 
  - [-1, 1, SCDown, [512, 3, 2]]
  - [[-1, 10], 1, Concat, [1]] # cat head P5
  - [-1, 3, C2fCIB, [1024, True, True]] # 22 (P5/32-large)
 
  - [[16, 19, 22], 1, v10Detect, [nc]] # Detect(P3, P4, P5)

【yolov10m】

# Ultralytics YOLO 🚀, AGPL-3.0 license
# YOLOv8 object detection model with P3-P5 outputs. For Usage examples see https://docs.ultralytics.com/tasks/detect
 
# Parameters
nc: 2   # number of classes
scales: # model compound scaling constants, i.e. 'model=yolov8n.yaml' will call yolov8.yaml with scale 'n'
  # [depth, width, max_channels]
  m: [0.67, 0.75, 768] # YOLOv8m summary: 295 layers, 25902640 parameters, 25902624 gradients,  79.3 GFLOPs
 
# YOLOv8.0n backbone
backbone:
  # [from, repeats, module, args]
  - [-1, 1, Conv, [64, 3, 2]] # 0-P1/2
  - [-1, 1, Conv, [128, 3, 2]] # 1-P2/4
  - [-1, 3, C2f, [128, True]]
  - [-1, 1, Conv, [256, 3, 2]] # 3-P3/8
  - [-1, 6, C2f, [256, True]]
  - [-1, 1, SCDown, [512, 3, 2]] # 5-P4/16
  - [-1, 6, C2f, [512, True]]
  - [-1, 1, SCDown, [1024, 3, 2]] # 7-P5/32
  - [-1, 3, C2fCIB, [1024, True]]
  - [-1, 1, SPPF, [1024, 5]] # 9
  - [-1, 1, PSA, [1024]] # 10
 
# YOLOv8.0n head
head:
  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [[-1, 6], 1, Concat, [1]] # cat backbone P4
  - [-1, 3, C2f, [512]] # 13
 
  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [[-1, 4], 1, Concat, [1]] # cat backbone P3
  - [-1, 3, C2f, [256]] # 16 (P3/8-small)
 
  - [-1, 1, Conv, [256, 3, 2]]
  - [[-1, 13], 1, Concat, [1]] # cat head P4
  - [-1, 3, C2fCIB, [512, True]] # 19 (P4/16-medium)
 
  - [-1, 1, SCDown, [512, 3, 2]]
  - [[-1, 10], 1, Concat, [1]] # cat head P5
  - [-1, 3, C2fCIB, [1024, True]] # 22 (P5/32-large)
 
  - [[16, 19, 22], 1, v10Detect, [nc]] # Detect(P3, P4, P5)

【yolov10b】

# Parameters
nc: 2   # number of classes
scales: # model compound scaling constants, i.e. 'model=yolov8n.yaml' will call yolov8.yaml with scale 'n'
  # [depth, width, max_channels]
  b: [0.67, 1.00, 512] 
 
# YOLOv8.0n backbone
backbone:
  # [from, repeats, module, args]
  - [-1, 1, Conv, [64, 3, 2]] # 0-P1/2
  - [-1, 1, Conv, [128, 3, 2]] # 1-P2/4
  - [-1, 3, C2f, [128, True]]
  - [-1, 1, Conv, [256, 3, 2]] # 3-P3/8
  - [-1, 6, C2f, [256, True]]
  - [-1, 1, SCDown, [512, 3, 2]] # 5-P4/16
  - [-1, 6, C2f, [512, True]]
  - [-1, 1, SCDown, [1024, 3, 2]] # 7-P5/32
  - [-1, 3, C2fCIB, [1024, True]]
  - [-1, 1, SPPF, [1024, 5]] # 9
  - [-1, 1, PSA, [1024]] # 10
 
# YOLOv8.0n head
head:
  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [[-1, 6], 1, Concat, [1]] # cat backbone P4
  - [-1, 3, C2fCIB, [512, True]] # 13
 
  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [[-1, 4], 1, Concat, [1]] # cat backbone P3
  - [-1, 3, C2f, [256]] # 16 (P3/8-small)
 
  - [-1, 1, Conv, [256, 3, 2]]
  - [[-1, 13], 1, Concat, [1]] # cat head P4
  - [-1, 3, C2fCIB, [512, True]] # 19 (P4/16-medium)
 
  - [-1, 1, SCDown, [512, 3, 2]]
  - [[-1, 10], 1, Concat, [1]] # cat head P5
  - [-1, 3, C2fCIB, [1024, True]] # 22 (P5/32-large)
 
  - [[16, 19, 22], 1, v10Detect, [nc]] # Detect(P3, P4, P5)

【yolov10l】

# Parameters
nc:  2   # number of classes
scales: # model compound scaling constants, i.e. 'model=yolov8n.yaml' will call yolov8.yaml with scale 'n'
  # [depth, width, max_channels]
  l: [1.00, 1.00, 512] # YOLOv8l summary: 365 layers, 43691520 parameters, 43691504 gradients, 165.7 GFLOPs
 
# YOLOv8.0n backbone
backbone:
  # [from, repeats, module, args]
  - [-1, 1, Conv, [64, 3, 2]] # 0-P1/2
  - [-1, 1, Conv, [128, 3, 2]] # 1-P2/4
  - [-1, 3, C2f, [128, True]]
  - [-1, 1, Conv, [256, 3, 2]] # 3-P3/8
  - [-1, 6, C2f, [256, True]]
  - [-1, 1, SCDown, [512, 3, 2]] # 5-P4/16
  - [-1, 6, C2f, [512, True]]
  - [-1, 1, SCDown, [1024, 3, 2]] # 7-P5/32
  - [-1, 3, C2fCIB, [1024, True]]
  - [-1, 1, SPPF, [1024, 5]] # 9
  - [-1, 1, PSA, [1024]] # 10
 
# YOLOv8.0n head
head:
  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [[-1, 6], 1, Concat, [1]] # cat backbone P4
  - [-1, 3, C2fCIB, [512, True]] # 13
 
  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [[-1, 4], 1, Concat, [1]] # cat backbone P3
  - [-1, 3, C2f, [256]] # 16 (P3/8-small)
 
  - [-1, 1, Conv, [256, 3, 2]]
  - [[-1, 13], 1, Concat, [1]] # cat head P4
  - [-1, 3, C2fCIB, [512, True]] # 19 (P4/16-medium)
 
  - [-1, 1, SCDown, [512, 3, 2]]
  - [[-1, 10], 1, Concat, [1]] # cat head P5
  - [-1, 3, C2fCIB, [1024, True]] # 22 (P5/32-large)
 
  - [[16, 19, 22], 1, v10Detect, [nc]] # Detect(P3, P4, P5)

【yolov10x】

# Parameters
nc: 2  # number of classes
scales: # model compound scaling constants, i.e. 'model=yolov8n.yaml' will call yolov8.yaml with scale 'n'
  # [depth, width, max_channels]
  x: [1.00, 1.25, 512]
 
# YOLOv8.0n backbone
backbone:
  # [from, repeats, module, args]
  - [-1, 1, Conv, [64, 3, 2]] # 0-P1/2
  - [-1, 1, Conv, [128, 3, 2]] # 1-P2/4
  - [-1, 3, C2f, [128, True]]
  - [-1, 1, Conv, [256, 3, 2]] # 3-P3/8
  - [-1, 6, C2f, [256, True]]
  - [-1, 1, SCDown, [512, 3, 2]] # 5-P4/16
  - [-1, 6, C2fCIB, [512, True]]
  - [-1, 1, SCDown, [1024, 3, 2]] # 7-P5/32
  - [-1, 3, C2fCIB, [1024, True]]
  - [-1, 1, SPPF, [1024, 5]] # 9
  - [-1, 1, PSA, [1024]] # 10
 
# YOLOv8.0n head
head:
  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [[-1, 6], 1, Concat, [1]] # cat backbone P4
  - [-1, 3, C2fCIB, [512, True]] # 13
 
  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [[-1, 4], 1, Concat, [1]] # cat backbone P3
  - [-1, 3, C2f, [256]] # 16 (P3/8-small)
 
  - [-1, 1, Conv, [256, 3, 2]]
  - [[-1, 13], 1, Concat, [1]] # cat head P4
  - [-1, 3, C2fCIB, [512, True]] # 19 (P4/16-medium)
 
  - [-1, 1, SCDown, [512, 3, 2]]
  - [[-1, 10], 1, Concat, [1]] # cat head P5
  - [-1, 3, C2fCIB, [1024, True]] # 22 (P5/32-large)
 
  - [[16, 19, 22], 1, v10Detect, [nc]] # Detect(P3, P4, P5)

实验阶段我们保持了相同的参数设置,等待长时期的训练过程结束之后我们来对以上六款不同参数量级的模型进行纵向的对比分析,如下:

【Precision曲线】
精确率曲线(Precision Curve)是一种用于评估二分类模型在不同阈值下的精确率性能的可视化工具。它通过绘制不同阈值下的精确率和召回率之间的关系图来帮助我们了解模型在不同阈值下的表现。
精确率(Precision)是指被正确预测为正例的样本数占所有预测为正例的样本数的比例。召回率(Recall)是指被正确预测为正例的样本数占所有实际为正例的样本数的比例。
绘制精确率曲线的步骤如下:
使用不同的阈值将预测概率转换为二进制类别标签。通常,当预测概率大于阈值时,样本被分类为正例,否则分类为负例。
对于每个阈值,计算相应的精确率和召回率。
将每个阈值下的精确率和召回率绘制在同一个图表上,形成精确率曲线。
根据精确率曲线的形状和变化趋势,可以选择适当的阈值以达到所需的性能要求。
通过观察精确率曲线,我们可以根据需求确定最佳的阈值,以平衡精确率和召回率。较高的精确率意味着较少的误报,而较高的召回率则表示较少的漏报。根据具体的业务需求和成本权衡,可以在曲线上选择合适的操作点或阈值。
精确率曲线通常与召回率曲线(Recall Curve)一起使用,以提供更全面的分类器性能分析,并帮助评估和比较不同模型的性能。

【Recall曲线】
召回率曲线(Recall Curve)是一种用于评估二分类模型在不同阈值下的召回率性能的可视化工具。它通过绘制不同阈值下的召回率和对应的精确率之间的关系图来帮助我们了解模型在不同阈值下的表现。
召回率(Recall)是指被正确预测为正例的样本数占所有实际为正例的样本数的比例。召回率也被称为灵敏度(Sensitivity)或真正例率(True Positive Rate)。
绘制召回率曲线的步骤如下:
使用不同的阈值将预测概率转换为二进制类别标签。通常,当预测概率大于阈值时,样本被分类为正例,否则分类为负例。
对于每个阈值,计算相应的召回率和对应的精确率。
将每个阈值下的召回率和精确率绘制在同一个图表上,形成召回率曲线。
根据召回率曲线的形状和变化趋势,可以选择适当的阈值以达到所需的性能要求。
通过观察召回率曲线,我们可以根据需求确定最佳的阈值,以平衡召回率和精确率。较高的召回率表示较少的漏报,而较高的精确率意味着较少的误报。根据具体的业务需求和成本权衡,可以在曲线上选择合适的操作点或阈值。
召回率曲线通常与精确率曲线(Precision Curve)一起使用,以提供更全面的分类器性能分析,并帮助评估和比较不同模型的性能。

【loss曲线】

深度学习的训练过程中,loss函数用于衡量模型预测结果与实际标签之间的差异。loss曲线则是通过记录每个epoch(或者迭代步数)的loss值,并将其以图形化的方式展现出来,以便我们更好地理解和分析模型的训练过程。

【mAP0.5】
mAP0.5,也被称为mAP@0.5或AP50,指的是当Intersection over Union(IoU)阈值为0.5时的平均精度(mean Average Precision)。IoU是一个用于衡量预测边界框与真实边界框之间重叠程度的指标,其值范围在0到1之间。当IoU值为0.5时,意味着预测框与真实框至少有50%的重叠部分。
在计算mAP0.5时,首先会为每个类别计算所有图片的AP(Average Precision),然后将所有类别的AP值求平均,得到mAP0.5。AP是Precision-Recall Curve曲线下面的面积,这个面积越大,说明AP的值越大,类别的检测精度就越高。
mAP0.5主要关注模型在IoU阈值为0.5时的性能,当mAP0.5的值很高时,说明算法能够准确检测到物体的位置,并且将其与真实标注框的IoU值超过了阈值0.5。

【mAP0.5:0.95】
mAP0.5:0.95,也被称为mAP@[0.5:0.95]或AP@[0.5:0.95],表示在IoU阈值从0.5到0.95变化时,取各个阈值对应的mAP的平均值。具体来说,它会在IoU阈值从0.5开始,以0.05为步长,逐步增加到0.95,并在每个阈值下计算mAP,然后将这些mAP值求平均。
这个指标考虑了多个IoU阈值下的平均精度,从而更全面、更准确地评估模型性能。当mAP0.5:0.95的值很高时,说明算法在不同阈值下的检测结果均非常准确,覆盖面广,可以适应不同的场景和应用需求。
对于一些需求比较高的场合,比如安全监控等领域,需要保证高的准确率和召回率,这时mAP0.5:0.95可能更适合作为模型的评价标准。
综上所述,mAP0.5和mAP0.5:0.95都是用于评估目标检测模型性能的重要指标,但它们的关注点有所不同。mAP0.5主要关注模型在IoU阈值为0.5时的性能,而mAP0.5:0.95则考虑了多个IoU阈值下的平均精度,从而更全面、更准确地评估模型性能。

【F1值曲线】
F1值曲线是一种用于评估二分类模型在不同阈值下的性能的可视化工具。它通过绘制不同阈值下的精确率(Precision)、召回率(Recall)和F1分数的关系图来帮助我们理解模型的整体性能。
F1分数是精确率和召回率的调和平均值,它综合考虑了两者的性能指标。F1值曲线可以帮助我们确定在不同精确率和召回率之间找到一个平衡点,以选择最佳的阈值。
绘制F1值曲线的步骤如下:
使用不同的阈值将预测概率转换为二进制类别标签。通常,当预测概率大于阈值时,样本被分类为正例,否则分类为负例。
对于每个阈值,计算相应的精确率、召回率和F1分数。
将每个阈值下的精确率、召回率和F1分数绘制在同一个图表上,形成F1值曲线。
根据F1值曲线的形状和变化趋势,可以选择适当的阈值以达到所需的性能要求。
F1值曲线通常与接收者操作特征曲线(ROC曲线)一起使用,以帮助评估和比较不同模型的性能。它们提供了更全面的分类器性能分析,可以根据具体应用场景来选择合适的模型和阈值设置。

综合六款不同参数量级模型的开发实验对比结果来看:6款模型没有拉开较为明显的差距,综合对比考虑最终选择使用yolov10n来作为线上推理模型。

接下来看下yolov10n模型的详细情况。

【离线推理实例】

【Batch实例】

【混淆矩阵】

【F1值曲线】

【Precision曲线】

【PR曲线】

【Recall曲线】

【训练可视化】

时代的浪潮在滚滚向前,拥抱科技时代带来的领域变革。展望未来,随着AI技术的不断成熟和医学影像数据的持续积累,AI在医学影像分析中的应用将更加广泛和深入。我们可以预见,未来的医学影像分析将实现全自动化、智能化和个性化,为医生提供更加全面、精准的诊断支持。同时,AI还将与其他医疗技术如基因测序、机器人手术等相结合,共同推动医疗行业的全面升级和转型。AI技术正以前所未有的速度和力量改变着医学影像分析的面貌,为疾病的早期发现、精准诊断和治疗提供了强有力的支持。在这场医疗变革的浪潮中,我们有理由相信,AI将成为推动医学进步的重要力量,引领我们迈向一个更加健康、美好的未来。

  • 28
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Together_CZ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值