江大白 | 深入浅出,YOLOv8算法使用指南

本文来源公众号“江大白”,仅用于学术分享,侵权删,干货满满。

原文链接:深入浅出,YOLOv8算法使用指南

以下文章来源于知乎:新机器视觉

作者:新机器视觉

链接:https://mp.weixin.qq.com/s/S7beoNElERz2fC2ZadayhA

本文仅用于学术分享,如有侵权,请联系后台作删文处理

图片

导读

YOLOv8是目前各个CV场景常用的算法,也包含了目标检测、实例分割和分类的各类功能。在文章中,我们将深入探讨YOLOv8的基础原理以及相关应用,希望对大家有帮助!

1. YOLOv8是什么?

YOLOv8是最新的YOLO模型,可用于目标检测图像分类实例分割任务。YOLOv8由Ultralytics开发,该公司还创建了具有影响力和产业定义性的YOLOv5模型。与YOLOv5相比,YOLOv8包含许多架构和开发者体验的改变和改进。

截至本文写作时,YOLOv8仍在积极开发中,Ultralytics正在开发新功能并响应社区的反馈。确实,当Ultralytics发布一个模型时,它会得到长期的支持:该组织与社区合作,使模型达到最佳状态。

2. YOLO是如何发展成为YOLOv8的?

YOLO(You Only Look Once)系列模型在计算机视觉领域变得非常有名。YOLO之所以著名,是因为它在保持小型模型尺寸的同时具有相当高的准确性。YOLO模型可以在单个GPU上进行训练,这使其适用于广泛的开发者。机器学习从业者可以在边缘硬件中以低成本部署它。

自2015年Joseph Redmond首次发布以来,YOLO一直受到计算机视觉社区的关注。在早期版本(版本1-4)中,YOLO是在Redmond编写的称为Darknet的自定义深度学习框架中以C代码维护的。

图片

YOLOv8作者Glenn Jocher在Ultralytics工作,他在PyTorch(来自Facebook的深度学习框架)中追随了YOLOv3仓库。随着影子仓库中训练的改进,Ultralytics最终推出了自己的模型:YOLOv5

由于其灵活的Pythonic结构,YOLOv5迅速成为世界上最先进的仓库。这种结构允许社区发明新的建模改进,并迅速通过具有类似PyTorch方法的存储库分享它们。

除了强大的模型基础之外,YOLOv5的维护人员一直致力于支持模型周围的健康软件生态系统。随着社区的需求,他们积极修复问题并推动存储库的能力。

在过去的两年里,各种模型从YOLOv5 PyTorch存储库分支出来,包括Scaled-YOLOv4YOLORYOLOv7。其他模型也在世界各地以其基于PyTorch的实现而涌现,如YOLOXYOLOv6。在这过程中,每个YOLO模型都带来了新的SOTA技术,不断推动模型的准确性和效率。

在过去的六个月中,Ultralytics一直在研究YOLO的最新SOTA版本,即YOLOv8。YOLOv8于2023年1月10日发布

3. 我为什么要使用YOLOv8?

以下是考虑在下一个计算机视觉项目中使用YOLOv8的几个主要原因

  • YOLOv8在Microsoft COCO和Roboflow 100上测得的准确性很高

  • YOLOv8带有许多开发者便利功能,从易于使用的CLI到良好结构化的Python包。

  • YOLO周围有一个庞大的社区,YOLOv8模型周围的社区也在不断增长,这意味着计算机视觉领域的许多人可能在你需要指导时提供帮助

接下来具体看看吧。

YOLOv8在COCO上取得了强大的准确性。例如,YOLOv8m模型(中型模型)在COCO上测得50.2%的mAP。在Roboflow 100上进行评估时,这是一个专门评估模型在各种特定任务领域的性能的数据集,YOLOv8比YOLOv5得分要好得多。本文后面提供了更多关于此的性能分析信息。

此外,YOLOv8中的开发者便利功能也很显著。与其他模型不同,其中任务分散在许多不同的Python文件中,您可以执行这些文件,YOLOv8提供了一个CLI,使模型训练更加直观。除此之外,它还提供了一个Python包,提供比先前模型更无缝的编码体验。

在考虑使用模型时,YOLO周围的社区是引人注目的。许多计算机视觉专家了解YOLO及其工作原理,有很多关于实际使用YOLO的在线指导。尽管YOLOv8在本文撰写时是新的,但已有许多在线指南可供参考。

以下是我们自己的学习资源,可帮助您深入了解YOLO:

  1. 如何使用YOLOv8检测对象

  2. 如何在视频上运行YOLOv8检测

  3. YOLOv8模型概述(在Roboflow Models上)

  4. 如何在自定义数据集上训练YOLOv8模型

  5. 如何将YOLOv8模型部署到Raspberry Pi

  6. 用于训练YOLOv8目标检测模型Google Colab笔记本

  7. 用于训练YOLOv8分类模型的Google Colab笔记本

  8. 用于训练YOLOv8分割模型的Google Colab笔记本

  9. 使用YOLOv8和ByteTRACK跟踪和计数车辆

让我们深入探讨YOLOv8的架构,以及它与先前YOLO模型的不同之处。

4. YOLOv8架构:深入解析

目前尚无YOLOv8的发表论文,因此我们缺乏对其创建过程中的研究方法和削减研究的直接了解。尽管如此,我们分析了存储库和有关该模型的信息,开始记录YOLOv8中的新特性。

如果你希望自行查看代码,请查看YOLOv8存储库,并查看此代码差异以了解一些研究是如何进行的。

这里我们提供了对影响深远的建模更新的快速摘要,然后我们将看一下模型的评估,这些评估已经说明了问题。

由GitHub用户RangeKing制作的以下图片显示了网络架构的详细可视化。

YOLOv8 架构,GitHub 用户 RangeKing 制作的可视化作品

4.1 无锚检测

YOLOv8是一种无锚模型。这意味着它直接预测对象的中心,而不是相对于已知锚框的偏移量。

在YOLO中锚框的可视化

锚框曾经是早期YOLO模型中棘手的一部分,因为它们可能代表目标基准框的分布,但不代表自定义数据集的分布。

YOLOv5的检测头

无锚检测减少了框预测的数量,从而加速了非最大抑制(NMS, Non-Maximum Suppression),这是一种复杂的后处理步骤,用于在推理后筛选候选检测。

YOLOv8的检测头

4.1 新的卷积

干部的第一个6x6卷积3x3卷积替代,主要的构建块发生了变化,C2f替代了C3。该模块在下图中进行了总结,其中“f”是特征数,“e”是扩展率,CBS是由Conv、BatchNorm和SiLU组成的块

在C2f中,来自Bottleneck(这是两个带有残差连接的3x3卷积的花哨名称)的所有输出都被串联在一起。而在C3中,仅使用了最后一个Bottleneck的输出。

新的YOLOv8 C2f模块

Bottleneck与YOLOv5中的相同,但第一个卷积的核大小从1x1更改为3x3。从这些信息中,我们可以看到YOLOv8开始恢复到2015年定义的ResNet块

在neck中,特征直接串联而不强制要求相同的通道维度。这减少了参数数量和张量的总体大小。

4.2 结束镶嵌增强

深度学习研究往往侧重于模型架构,但YOLOv5和YOLOv8的训练过程是它们成功的重要组成部分。

YOLOv8在在线训练期间对图像进行增强。在每个时代,模型看到了提供的图像的稍微不同的变化。

其中一种增强称为镶嵌增强。这涉及将四个图像拼接在一起,迫使模型学习在新位置、部分遮挡和不同周围像素的对象。

棋盘照片的马赛克增强

然而,经验表明,如果在整个训练过程中执行此增强,性能会下降。因此,在最后十个训练时代中关闭它是有益的。

这种变化是YOLO建模在YOLOv5存储库和YOLOv8研究中随着时间的推移所受到的慎重关注的典范。

5. YOLOv8准确性改进

YOLOv8的研究主要受到对COCO基准的经验性评估的推动。随着网络和训练例程的每个部分的微调,运行新实验以验证这些变化对COCO建模的影响。

5.1 YOLOv8 COCO准确性

COCO(上下文中的常见对象)是评估目标检测模型的行业标准基准。在COCO上比较模型时,我们看的是mAP值和推理速度的FPS测量。模型应在相似的推理速度下进行比较。

下图显示了使用Ultralytics团队收集并在YOLOv8 README中发布的数据,YOLOv8在COCO上的准确性:

YOLOv8 COCO评测

截至本文写作时,YOLOv8在COCO上的准确性在相似的推理延迟条件下是最先进的。

5.2 RF100准确性

在Roboflow,我们从Roboflow Universe中抽取了100个样本数据集,这是一个拥有超过100,000个数据集的存储库,用于评估模型对新领域的泛化能力。我们的基准由Intel的支持下开发,是为计算机视觉从业者设计的基准,旨在更好地回答问题:“这个模型在我的自定义数据集上表现如何?”

我们在我们的RF100基准上评估了YOLOv8,与YOLOv5和YOLOv7一起,下图显示了每个模型的mAP@.50的箱线图。

我们对每个模型的小版本进行了100个时代的运行,我们使用单个种子运行了一次,因此由于梯度抽签,请以谨慎的态度对待这个结果。

下图的箱线图告诉我们YOLOv8的异常值较少,而在Roboflow 100基准上的mAP总体上更好。

YOLO 相对于 RF100 的 mAP@.50

下面的条形图显示了每个RF100类别的平均mAP@.50。同样,YOLOv8胜过所有先前的模型。

YOLO 相对于 RF100 类别的平均 mAP@.50

与YOLOv5评估相比,YOLOv8模型在每个数据集上产生了类似的结果,或者显著改善了结果。

6. YOLOv8存储库和PIP包

YOLOv8代码存储库旨在成为社区使用和迭代模型的地方。由于我们知道该模型将持续改进,我们可以将初始YOLOv8模型结果作为基线,并期待随着发布新的迷你版本而进行的未来改进。

我们希望的最好结果是研究人员开始在Ultralytics存储库的基础上开发他们的网络。在YOLOv5的分支中一直在进行研究,但如果在一个地方制作模型并最终合并到主线中,将会更好。

6.1 YOLOv8存储库布局

YOLOv8模型使用与YOLOv5类似的代码,其中分类、实例分割和目标检测任务类型的支持采用相同的代码例程。

模型仍然使用相同的YOLOv5 YAML格式初始化,并且数据集格式也保持不变。

6.2 YOLOv8 CLI

Ultralytics软件包配备了一个CLI。这对许多YOLOv5用户来说是熟悉的,因为核心训练、检测和导出交互也是通过CLI完成的。

yolo task=detect mode=val model={HOME}/runs/detect/train/weights/best.pt 
data={dataset.location}/data.yaml

你可以在task中传递 [detect, classify, segment],在mode中传递 [train, predict, val, export],model可以是未初始化的.yaml文件,也可以是先前训练过的.pt文件。

6.3 YOLOv8 Python包

除了可用的CLI工具外,YOLOv8现在还作为一个PIP包进行分发。这使得本地开发稍显困难,但解锁了将YOLOv8融入你的Python代码的所有可能性。

from ultralytics import YOLO

# 加载模型
model = YOLO("yolov8n.yaml")  # 从头开始构建一个新模型
model = YOLO("yolov8n.pt")  # 加载预训练模型(推荐用于训练)

# 使用模型
results = model.train(data="coco128.yaml", epochs=3)  # 训练模型
results = model.val()  # 评估模型在验证集上的性能
results = model("https://ultralytics.com/images/bus.jpg")  # 对图像进行预测
success = YOLO("yolov8n.pt").export(format="onnx")  # 将模型导出为ONNX格式

7. YOLOv8注释格式

YOLOv8使用YOLOv5 PyTorch TXT注释格式,这是Darknet注释格式的修改版本

查看Roboflow Convert工具,了解如何转换数据以在新的YOLOv8模型中使用。
https://roboflow.com/formats/yolov8-pytorch-txt?ref=blog.roboflow.com

8. YOLOv8标注工具

YOLOv8的创建者和维护者Ultralytics已经与Roboflow合作,成为YOLOv8项目中建议的标注和导出工具。使用Roboflow,我们可以为YOLOv8支持的所有任务(目标检测、分类和分割)标注数据,并导出数据以便在YOLOv8 CLI或Python包中使用。

9. 开始使用YOLOv8

要开始将YOLOv8应用于我们自己的用例,请查看我们关于如何在自定义数据集上训练YOLOv8的指南。

中文版,见后续推文。

要了解其他人如何使用YOLOv8,请在Roboflow Universe上浏览其他YOLOv8模型、数据集和灵感。

对于将模型投入生产并使用主动学习策略不断更新模型的从业者,我们添加了一个路径,可以部署YOLOv8模型,将其用于我们的推理引擎,并用于数据集的标签辅助。或者,可以使用Roboflow Inference在设备上部署YOLOv8,这是一个开源推理服务器。

THE END!

文章结束,感谢阅读。您的点赞,收藏,评论是我继续更新的动力。大家有推荐的公众号可以评论区留言,共同学习,一起进步。

  • 29
    点赞
  • 32
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值