yolov8使用详解

文章目录


内容来源:https://docs.ultralytics.com/zh/

一. 安装yolov8

1. 通过Pip安装

从PyPI安装ultralytics包

pip install ultralytics -i https://mirrors.aliyun.com/pypi/simple/

2. 通过Conda安装

conda install -c conda-forge ultralytics

3. Git克隆源码安装

  1. 克隆ultralytics仓库

    git clone https://github.com/ultralytics/ultralytics
    
  2. 导航到克隆的目录

    cd ultralytics
    
  3. 为开发安装可编辑模式下的包

    pip install -e . -i https://mirrors.aliyun.com/pypi/simple/
    

    在这里插入图片描述

二. yolov8基本设置

Ultralytics库提供了一个强大的设置管理系统,允许您精细控制实验。通过利用ultralytics.utils模块中的SettingsManager,用户可以轻松访问和修改设置。这些设置存储在YAML文件中,可以直接在Python环境中查看或修改。

名称示例值数据类型描述
settings_version'0.0.4'strUltralytics settings 版本(不同于Ultralytics pip版本)
datasets_dir'/path/to/datasets'str存储数据集的目录
weights_dir'/path/to/weights'str存储模型权重的目录
runs_dir'/path/to/runs'str存储实验运行的目录
uuid'a1b2c3d4'str当前设置的唯一标识符
syncTruebool是否将分析和崩溃同步到HUB
api_key''strUltralytics HUB API Key
clearmlTruebool是否使用ClearML记录
cometTruebool是否使用Comet ML进行实验跟踪和可视化
dvcTruebool是否使用DVC进行实验跟踪和版本控制
hubTruebool是否使用Ultralytics HUB集成
mlflowTruebool是否使用MLFlow进行实验跟踪
neptuneTruebool是否使用Neptune进行实验跟踪
raytuneTruebool是否使用Ray Tune进行超参数调整
tensorboardTruebool是否使用TensorBoard进行可视化
wandbTruebool是否使用Weights & Biases记录
  1. 在python中查看设置

    from ultralytics import settings
    
    # 查看所有设置
    print(settings)
    
    # 返回特定设置
    value = settings['runs_dir']
    
  2. 在python中修改设置

    from ultralytics import settings
    
    # 更新一个设置
    settings.update({'runs_dir': '/path/to/runs'})
    
    # 更新多个设置
    settings.update({'runs_dir': '/path/to/runs', 'tensorboard': False})
    
    # 重置设置为默认值
    settings.reset()
    

    在这里插入图片描述

三. yolov8模型

1. 目标检测

目标检测器的输出是一组围绕图像中物体的边界框,以及每个框的类别标签和置信度得分。当您需要识别场景中的感兴趣对象,但不需要准确了解物体的位置或其确切形状时,目标检测是一个很好的选择。
在这里插入图片描述

模型尺寸
(像素)
mAPval
50-95
速度
CPU ONNX
(毫秒)
速度
A100 TensorRT
(毫秒)
参数
(M)
FLOPs
(B)
YOLOv8n64037.380.40.993.28.7
YOLOv8s64044.9128.41.2011.228.6
YOLOv8m64050.2234.71.8325.978.9
YOLOv8l64052.9375.22.3943.7165.2
YOLOv8x64053.9479.13.5368.2257.8

2. 实例分割

实例分割模型的输出是一组蒙版或轮廓,用于勾画图像中每个物体,以及每个物体的类别标签和置信度分数。实例分割在您需要不仅知道图像中的物体位置,还需要知道它们确切形状时非常有用。
在这里插入图片描述

模型尺寸
(像素)
mAPbox
50-95
mAPmask
50-95
速度
CPU ONNX
(ms)
速度
A100 TensorRT
(ms)
参数
(M)
FLOPs
(B)
YOLOv8n-seg64036.730.596.11.213.412.6
YOLOv8s-seg64044.636.8155.71.4711.842.6
YOLOv8m-seg64049.940.8317.02.1827.3110.2
YOLOv8l-seg64052.342.6572.42.7946.0220.5
YOLOv8x-seg64053.443.4712.14.0271.8344.1

3. 图像分类

图像分类器的输出是单个类别标签和一个置信度分数。当您只需要知道一幅图像属于哪个类别、而不需要知道该类别对象的位置或它们的确切形状时,图像分类非常有用。
在这里插入图片描述

模型尺寸
(像素)
准确率
top1
准确率
top5
速度
CPU ONNX
(ms)
速度
A100 TensorRT
(ms)
参数
(M)
FLOPs
(B) at 640
YOLOv8n-cls22466.687.012.90.312.74.3
YOLOv8s-cls22472.391.123.40.356.413.5
YOLOv8m-cls22476.493.285.40.6217.042.7
YOLOv8l-cls22478.094.1163.00.8737.599.7
YOLOv8x-cls22478.494.3232.01.0157.4154.8

4. 姿态估计

姿态估计模型的输出是一组点集,这些点代表图像中物体上的关键点,通常还包括每个点的置信度得分。当你需要在场景中识别物体的特定部位及其相互之间的位置时,姿态估计是一个不错的选择。
在这里插入图片描述

Modelsize
(pixels)
mAPpose
50-95
mAPpose
50
Speed
CPU ONNX
(ms)
Speed
A100 TensorRT
(ms)
params
(M)
FLOPs
(B)
YOLOv8n-pose64050.480.1131.81.183.39.2
YOLOv8s-pose64060.086.2233.21.4211.630.2
YOLOv8m-pose64065.088.8456.32.0026.481.0
YOLOv8l-pose64067.690.0784.52.5944.4168.6
YOLOv8x-pose64069.290.21607.13.7369.4263.2
YOLOv8x-pose-p6128071.691.24088.710.0499.11066.4

5. 多对象跟踪

交通运输零售水产养殖
在这里插入图片描述在这里插入图片描述在这里插入图片描述
车辆追踪人员追踪鱼类追踪

(1) 可用的追踪器

Ultralytics YOLO支持以下追踪算法。可以通过传递相关的YAML配置文件如tracker=tracker_type.yaml来启用:

  • BoT-SORT - 使用 botsort.yaml 启用此追踪器。
  • ByteTrack - 使用 bytetrack.yaml 启用此追踪器。

默认追踪器是BoT-SORT。要在视频流中运行追踪器,请使用已训练的检测、分割或姿态模型,例如YOLOv8n、YOLOv8n-seg和YOLOv8n-pose。

from ultralytics import YOLO

# 加载官方或自定义模型
model = YOLO('yolov8n.pt')  # 加载一个官方的检测模型
model = YOLO('yolov8n-seg.pt')  # 加载一个官方的分割模型
model = YOLO('yolov8n-pose.pt')  # 加载一个官方的姿态模型
model = YOLO('path/to/best.pt')  # 加载一个自定义训练的模型

# 使用模型进行追踪
results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True)  # 使用默认追踪器进行追踪
results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True, tracker="bytetrack.yaml")  # 使用ByteTrack追踪器进行追踪

(2) 选择追踪器

Ultralytics还允许您使用修改后的追踪器配置文件。要执行此操作,只需从ultralytics/cfg/trackers中复制一个追踪器配置文件(例如,custom_tracker.yaml)并根据您的需求修改任何配置(除了tracker_type)。

from ultralytics import YOLO

# 加载模型并使用自定义配置文件运行追踪器
model = YOLO('yolov8n.pt')
results = model.track(source="https://youtu.be/LNwODJXcvt4", tracker='custom_tracker.yaml')

有关追踪参数的全面列表,请参考ultralytics/cfg/trackers页面。

(3) 持续追踪循环

这是一个使用OpenCV(cv2)和YOLOv8在视频帧上运行物体追踪的Python脚本。此脚本假设您已经安装了必要的包(opencv-pythonultralytics)。参数persist=True告诉追踪器当前的图像或帧是序列中的下一个,并且期望在当前图像中从上一个图像中获得追踪路径。

import cv2
from ultralytics import YOLO

# 加载YOLOv8模型
model = YOLO('yolov8n.pt')

# 打开视频文件
video_path = "path/to/video.mp4"
cap = cv2.VideoCapture(video_path)

# 循环遍历视频帧
while cap.isOpened():
    # 从视频读取一帧
    success, frame = cap.read()

    if success:
        # 在帧上运行YOLOv8追踪,持续追踪帧间的物体
        results = model.track(frame, persist=True)

        # 在帧上展示结果
        annotated_frame = results[0].plot()

        # 展示带注释的帧
        cv2.imshow("YOLOv8 Tracking", annotated_frame)

        # 如果按下'q'则退出循环
        if cv2.waitKey(1) & 0xFF == ord("q"):
            break
    else:
        # 如果视频结束则退出循环
        break

# 释放视频捕获对象并关闭显示窗口
cap.release()
cv2.destroyAllWindows()

请注意从model(frame)更改为model.track(frame)的变化,这使能够启用物体追踪而不只是简单的检测。这个修改的脚本将在视频的每一帧上运行追踪器,可视化结果,并在窗口中显示它们。通过按’q’可以退出循环。

(4) 随时间绘制追踪路径

在连续帧上可视化物体追踪路径可以提供有关视频中检测到的物体的运动模式和行为的有价值的洞见。使用Ultralytics YOLOv8,绘制这些路径是一个无缝且高效的过程。

在以下示例中,我们演示了如何利用YOLOv8的追踪功能在多个视频帧上绘制检测物体的移动。这个脚本涉及打开视频文件、逐帧读取,并使用YOLO模型识别并追踪各种物体。通过保留检测到的边界框的中心点并连接它们,我们可以绘制表示跟踪物体路径的线条。

 from collections import defaultdict

 import cv2
 import numpy as np

 from ultralytics import YOLO

 # 加载YOLOv8模型
 model = YOLO('yolov8n.pt')

 # 打开视频文件
 video_path = "path/to/video.mp4"
 cap = cv2.VideoCapture(video_path)

 # 存储追踪历史
 track_history = defaultdict(lambda: [])

 # 循环遍历视频帧
 while cap.isOpened():
     # 从视频读取一帧
     success, frame = cap.read()

     if success:
         # 在帧上运行YOLOv8追踪,持续追踪帧间的物体
         results = model.track(frame, persist=True)

         # 获取框和追踪ID
         boxes = results[0].boxes.xywh.cpu()
         track_ids = results[0].boxes.id.int().cpu().tolist()

         # 在帧上展示结果
         annotated_frame = results[0].plot()

         # 绘制追踪路径
         for box, track_id in zip(boxes, track_ids):
             x, y, w, h = box
             track = track_history[track_id]
             track.append((float(x), float(y)))  # x, y中心点
             if len(track) > 30:  # 在90帧中保留90个追踪点
                 track.pop(0)

             # 绘制追踪线
             points = np.hstack(track).astype(np.int32).reshape((-1, 1, 2))
             cv2.polylines(annotated_frame, [points], isClosed=False, color=(230, 230, 230), thickness=10)

         # 展示带注释的帧
         cv2.imshow("YOLOv8 Tracking", annotated_frame)

         # 如果按下'q'则退出循环
         if cv2.waitKey(1) & 0xFF == ord("q"):
             break
     else:
         # 如果视频结束则退出循环
         break

 # 释放视频捕获对象并关闭显示窗口
 cap.release()
 cv2.destroyAllWindows()

四. yolov8数据集

Ultralytics 支持多种数据集,方便开展计算机视觉任务,诸如检测、实例分割、姿态估计、分类和多对象跟踪。以下是主要 Ultralytics 数据集的列表,以及每个计算机视觉任务及其相应数据集的概述。

1. 检测数据集

边界框对象检测是一种计算机视觉技术,涉及通过在图像中的每个对象周围绘制边界框来检测和定位对象。

  • Argoverse:包含城市环境中的 3D 追踪和运动预测数据,并提供丰富的注释。
  • COCO:一个大型数据集,专为对象检测、分割和描述设计,包含 20 多万带有标签的图像。
  • COCO8:包含 COCO 训练集和 COCO 验证集的前 4 张图像,适合快速测试。
  • Global Wheat 2020:一个小麦头部图像的数据集,收集自世界各地,用于对象检测和定位任务。
  • Objects365:一个高质量的大规模对象检测数据集,含 365 个对象类别和逾 60 万个注释图像。
  • OpenImagesV7:谷歌提供的综合数据集,包含 170 万训练图像和 4.2 万验证图像。
  • SKU-110K:一个特点是在零售环境中进行密集对象检测的数据集,包含 1.1 万图像和 170 万个边界框。
  • VisDrone:包含无人机拍摄图像中的对象检测和多对象跟踪数据的数据集,包含超过 1 万张图像和视频序列。
  • VOC:Pascal Visual Object Classes (VOC) 对象检测和分割数据集,包含 20 个对象类别和逾 1.1 万图像。
  • xView:用于航拍图像对象检测的数据集,包含 60 个对象类别和逾 100 万个注释对象。

2. 实例分割数据集

实例分割是一种计算机视觉技术,涉及在像素级别识别和定位图像中的对象。

  • COCO:一个大型数据集,专为对象检测、分割和描述任务设计,包含 20 多万带有标签的图像。
  • COCO8-seg:一个用于实例分割任务的较小数据集,包含 8 张带有分割注释的 COCO 图像。

3. 姿态估计

姿态估计是一种用于确定对象相对于相机或世界坐标系统的姿势的技术。

  • COCO:一个包含人体姿态注释的大型数据集,专为姿态估计任务设计。
  • COCO8-pose:一个用于姿态估计任务的较小数据集,包含 8 张带有人体姿态注释的 COCO 图像。
  • Tiger-pose:一个紧凑型数据集,包含 263 张专注于老虎的图像,每只老虎注释有 12 个关键点,用于姿态估计任务。

4. 分类

图像分类是一个计算机视觉任务,涉及基于其视觉内容将图像分类到一个或多个预定义类别中。

  • Caltech 101:包含 101 个对象类别图像的数据集,用于图像分类任务。
  • Caltech 256:Caltech 101 的扩展版本,具有 256 个对象类别和更具挑战性的图像。
  • CIFAR-10:包含 60K 32x32 彩色图像的数据集,分为 10 个类别,每个类别有 6K 图像。
  • CIFAR-100:CIFAR-10 的扩展版本,具有 100 个对象类别和每类 600 个图像。
  • Fashion-MNIST:包含 70,000 张灰度图像的数据集,图像来自 10 个时尚类别,用于图像分类任务。
  • ImageNet:一个大型的用于对象检测和图像分类的数据集,包含超过 1400 万图像和 2 万个类别。
  • ImageNet-10:ImageNet 的一个较小子集,包含 10 个类别,用于更快速的实验和测试。
  • Imagenette:ImageNet 的一个较小子集,其中包含 10 个容易区分的类别,用于更快速的训练和测试。
  • Imagewoof:ImageNet 的一个更具挑战性的子集,包含 10 个狗品种类别用于图像分类任务。
  • MNIST:包含 70,000 张手写数字灰度图像的数据集,用于图像分类任务。

5. 定向边界框 (OBB)

定向边界框 (OBB) 是一种计算机视觉方法,用于使用旋转的边界框检测图像中的倾斜对象,常应用于航空和卫星图像。

  • DOTAv2:一个流行的 OBB 航拍图像数据集,拥有 170 万个实例和 11,268 张图像。

6. 多对象跟踪

多对象跟踪是一种计算机视觉技术,涉及在视频序列中检测和跟踪多个对象的运动。

  • Argoverse:包含城市环境中的 3D 追踪和运动预测数据,并提供丰富的注释,适用于多对象跟踪任务。
  • VisDrone:包含无人机拍摄图像中的对象检测和多对象跟踪数据的数据集,包含超过 1 万张图像和视频序列。

7. 自定义数据集

自定义一个新数据集需要几个步骤,来确保它与现有基础设施良好对齐。以下是必要的步骤:

(1) 自定义新数据集的步骤

  1. 收集图像:收集属于数据集的图像。这些可能来自公共数据库或您自己的收藏。

  2. 注释图像:根据任务对这些图像进行边界框、分段或关键点的标记。

  3. 导出注释:将这些注释转换为 Ultralytics 支持的 YOLO *.txt 文件格式。

  4. 组织数据集:按正确的文件夹结构排列您的数据集。您应该有 train/ val/ 顶级目录,在每个目录内,有 images/labels/ 子目录。

    dataset/
    ├── train/
    │   ├── images/
    │   └── labels/
    └── val/
        ├── images/
        └── labels/
    
  5. 创建一个 data.yaml 文件:在数据集的根目录中,创建一个描述数据集的 data.yaml 文件,包括类别信息等必要内容。

  6. 优化图像(可选):如果您想为了更高效的处理而减小数据集的大小,可以使用以下代码来优化图像。这不是必需的,但推荐用于减小数据集大小和加快下载速度。

  7. 压缩数据集:将整个数据集文件夹压缩成一个 zip 文件。

  8. 文档和 PR:创建描述您的数据集和它如何融入现有框架的文档页面。之后,提交一个 Pull Request (PR)。更多关于如何提交 PR 的详细信息,请参照 Ultralytics 贡献指南

(2) 优化和压缩数据集的示例代码

from pathlib import Path
from ultralytics.data.utils import compress_one_image
from ultralytics.utils.downloads import zip_directory

# 定义数据集目录
path = Path('path/to/dataset')

# 优化数据集中的图像(可选)
for f in path.rglob('*.jpg'):
    compress_one_image(f)

# 将数据集压缩成 'path/to/dataset.zip'
zip_directory(path)

通过遵循这些步骤,您可以自定义一个与 Ultralytics 现有结构良好融合的新数据集。

五. yolov8训练模型

YOLO模型的训练设置是指用于对数据集进行模型训练的各种超参数和配置。这些设置会影响模型的性能、速度和准确性。一些常见的YOLO训练设置包括批大小、学习率、动量和权重衰减。其他可能影响训练过程的因素包括优化器的选择、损失函数的选择以及训练数据集的大小和组成。仔细调整和实验这些设置以实现给定任务的最佳性能是非常重要的。

描述
modelNone模型文件路径,例如 yolov8n.pt, yolov8n.yaml
dataNone数据文件路径,例如 coco128.yaml
epochs100训练的轮次数量
patience50早停训练的等待轮次
batch16每批图像数量(-1为自动批大小)
imgsz640输入图像的大小,以整数表示
saveTrue保存训练检查点和预测结果
save_period-1每x轮次保存检查点(如果<1则禁用)
cacheFalseTrue/ram, disk 或 False。使用缓存加载数据
deviceNone运行设备,例如 cuda device=0 或 device=0,1,2,3 或 device=cpu
workers8数据加载的工作线程数(如果DDP则为每个RANK)
projectNone项目名称
nameNone实验名称
exist_okFalse是否覆盖现有实验
pretrainedTrue(bool 或 str) 是否使用预训练模型(bool)或从中加载权重的模型(str)
optimizer'auto'使用的优化器,选择范围=[SGD, Adam, Adamax, AdamW, NAdam, RAdam, RMSProp, auto]
verboseFalse是否打印详细输出
seed0随机种子,用于可重复性
deterministicTrue是否启用确定性模式
single_clsFalse将多类数据作为单类训练
rectFalse矩形训练,每批为最小填充整合
cos_lrFalse使用余弦学习率调度器
close_mosaic10(int) 最后轮次禁用马赛克增强(0为禁用)
resumeFalse从最后检查点恢复训练
ampTrue自动混合精度(AMP)训练,选择范围=[True, False]
fraction1.0训练的数据集比例(默认为1.0,即训练集中的所有图像)
profileFalse在训练期间为记录器分析ONNX和TensorRT速度
freezeNone(int 或 list, 可选) 在训练期间冻结前n层,或冻结层索引列表
lr00.01初始学习率(例如 SGD=1E-2, Adam=1E-3)
lrf0.01最终学习率 (lr0 * lrf)
momentum0.937SGD动量/Adam beta1
weight_decay0.0005优化器权重衰减5e-4
warmup_epochs3.0热身轮次(小数ok)
warmup_momentum0.8热身初始动量
warmup_bias_lr0.1热身初始偏差lr
box7.5框损失增益
cls0.5cls损失增益(根据像素缩放)
dfl1.5dfl损失增益
pose12.0姿态损失增益(仅限姿态)
kobj2.0关键点obj损失增益(仅限姿态)
label_smoothing0.0标签平滑(小数)
nbs64标称批大小
overlap_maskTrue训练期间掩码应重叠(仅限分割训练)
mask_ratio4掩码降采样比率(仅限分割训练)
dropout0.0使用dropout正则化(仅限分类训练)
valTrue训练期间验证/测试
from ultralytics import YOLO

# 加载一个模型
model = YOLO('yolov8n.yaml')  # 从YAML建立一个新模型
model = YOLO('yolov8n.pt')  # 加载预训练模型(推荐用于训练)
model = YOLO('yolov8n.yaml').load('yolov8n.pt')  # 从YAML建立并转移权重

# 训练模型
results = model.train(data='coco128.yaml', epochs=100, imgsz=640)

六. 使用yolov8进行推理

来源参数类型备注
图像'image.jpg'strPath单个图像文件。
URL'https://ultralytics.com/images/bus.jpg'str图像的 URL 地址。
截屏'screen'str截取屏幕图像。
PILImage.open('im.jpg')PIL.ImageRGB 通道的 HWC 格式图像。
OpenCVcv2.imread('im.jpg')np.ndarrayBGR 通道的 HWC 格式图像 uint8 (0-255)
numpynp.zeros((640,1280,3))np.ndarrayBGR 通道的 HWC 格式图像 uint8 (0-255)
torchtorch.zeros(16,3,320,640)torch.TensorRGB 通道的 BCHW 格式图像 float32 (0.0-1.0)
CSV'sources.csv'strPath包含图像、视频或目录路径的 CSV 文件。
视频 ✅'video.mp4'strPath如 MP4, AVI 等格式的视频文件。
目录 ✅'path/'strPath包含图像或视频文件的目录路径。
通配符 ✅'path/*.jpg'str匹配多个文件的通配符模式。使用 * 字符作为通配符。
YouTube ✅'https://youtu.be/LNwODJXcvt4'strYouTube 视频的 URL 地址。
流媒体 ✅'rtsp://example.com/media.mp4'strRTSP, RTMP, TCP 或 IP 地址等流协议的 URL 地址。
多流媒体 ✅'list.streams'strPath一个流 URL 每行的 *.streams 文本文件,例如 8 个流将以 8 的批处理大小运行。

1. 对图像文件进行推理。

from ultralytics import YOLO

# 加载预训练的 YOLOv8n 模型
model = YOLO('yolov8n.pt')

# 定义图像文件的路径
source = 'path/to/image.jpg'

# 对来源进行推理
results = model(source)  # Results 对象列表

##2. 对当前屏幕内容作为截屏进行推理。

from ultralytics import YOLO

# 加载预训练的 YOLOv8n 模型
model = YOLO('yolov8n.pt')

# 定义当前截屏为来源
source = 'screen'

# 对来源进行推理
results = model(source)  # Results 对象列表

3. 对通过 URL 远程托管的图像或视频进行推理。

from ultralytics import YOLO

# 加载预训练的 YOLOv8n 模型
model = YOLO('yolov8n.pt')

# 定义远程图像或视频 URL
source = 'https://ultralytics.com/images/bus.jpg'

# 对来源进行推理
results = model(source)  # Results 对象列表

4. 对使用 Python Imaging Library (PIL) 打开的图像进行推理。

from PIL import Image
from ultralytics import YOLO

# 加载预训练的 YOLOv8n 模型
model = YOLO('yolov8n.pt')

# 使用 PIL 打开图像
source = Image.open('path/to/image.jpg')

# 对来源进行推理
results = model(source)  # Results 对象列表

5. 对使用 OpenCV 读取的图像进行推理。

import cv2
from ultralytics import YOLO

# 加载预训练的 YOLOv8n 模型
model = YOLO('yolov8n.pt')

# 使用 OpenCV 读取图像
source = cv2.imread('path/to/image.jpg')

# 对来源进行推理
results = model(source)  # Results 对象列表

6. 对表示为 numpy 数组的图像进行推理。

import numpy as np
from ultralytics import YOLO

# 加载预训练的 YOLOv8n 模型
model = YOLO('yolov8n.pt')

# 创建一个 HWC 形状 (640, 640, 3) 的随机 numpy 数组,数值范围 [0, 255] 类型为 uint8
source = np.random.randint(low=0, high=255, size=(640, 640, 3), dtype='uint8')

# 对来源进行推理
results = model(source)  # Results 对象列表

7. 对表示为 PyTorch 张量的图像进行推理。

import torch
from ultralytics import YOLO

# 加载预训练的 YOLOv8n 模型
model = YOLO('yolov8n.pt')

# 创建一个 BCHW 形状 (1, 3, 640, 640) 的随机 torch 张量,数值范围 [0, 1] 类型为 float32
source = torch.rand(1, 3, 640, 640, dtype=torch.float32)

# 对来源进行推理
results = model(source)  # Results 对象列表

8. 对 CSV 文件中列出的图像、URLs、视频和目录进行推理。

import torch
from ultralytics import YOLO

# 加载预训练的 YOLOv8n 模型
model = YOLO('yolov8n.pt')

# 定义一个包含图像、URLs、视频和目录路径的 CSV 文件路径
source = 'path/to/file.csv'

# 对来源进行推理
results = model(source)  # Results 对象列表

9. 对视频文件进行推理。

使用 stream=True 时,可以创建一个 Results 对象的生成器,减少内存使用。

from ultralytics import YOLO

# 加载预训练的 YOLOv8n 模型
model = YOLO('yolov8n.pt')

# 定义视频文件路径
source = 'path/to/video.mp4'

# 对来源进行推理
results = model(source, stream=True)  # Results 对象的生成器

10. 对目录中的所有图像和视频进行推理。

要包含子目录中的图像和视频,使用通配符模式,例如 path/to/dir/**/*

from ultralytics import YOLO

# 加载预训练的 YOLOv8n 模型
model = YOLO('yolov8n.pt')

# 定义包含图像和视频文件用于推理的目录路径
source = 'path/to/dir'

# 对来源进行推理
results = model(source, stream=True)  # Results 对象的生成器

11. 对与 * 字符匹配的所有图像和视频进行推理。

from ultralytics import YOLO

# 加载预训练的 YOLOv8n 模型
model = YOLO('yolov8n.pt')

# 定义一个目录下所有 JPG 文件的通配符搜索
source = 'path/to/dir/*.jpg'

# 或定义一个包括子目录的所有 JPG 文件的递归通配符搜索
source = 'path/to/dir/**/*.jpg'

# 对来源进行推理
results = model(source, stream=True)  # Results 对象的生成器

12. 在YouTube视频上运行推理。

通过使用stream=True,您可以创建一个Results对象的生成器,以减少长视频的内存使用。

from ultralytics import YOLO

# 加载预训练的YOLOv8n模型
model = YOLO('yolov8n.pt')

# 定义源为YouTube视频URL
source = 'https://youtu.be/LNwODJXcvt4'

# 在源上运行推理
results = model(source, stream=True)  # Results对象的生成器

13. 使用RTSP、RTMP、TCP和IP地址协议在远程流媒体源上运行推理。

如果在*.streams文本文件中提供了多个流,则将运行批量推理,例如,8个流将以批大小8运行,否则单个流将以批大小1运行。

from ultralytics import YOLO

# 加载预训练的YOLOv8n模型
model = YOLO('yolov8n.pt')

# 单流媒体源批大小1推理
source = 'rtsp://example.com/media.mp4'  # RTSP、RTMP、TCP或IP流媒体地址

# 多个流媒体源的批量推理(例如,8个流的批大小为8)
source = 'path/to/list.streams'  # *.streams文本文件,每行一个流媒体地址

# 在源上运行推理
results = model(source, stream=True)  # Results对象的生成器

五. yolov8推理参数设置

yolov8进行推理时支持的所有参数:

名称类型默认值描述
sourcestr'ultralytics/assets'图像或视频的源目录
conffloat0.25检测对象的置信度阈值
ioufloat0.7用于NMS的交并比(IoU)阈值
imgszint or tuple640图像大小,可以是标量或(h, w)列表,例如(640, 480)
halfboolFalse使用半精度(FP16)
deviceNone or strNone运行设备,例如 cuda device=0/1/2/3 或 device=cpu
showboolFalse如果可能,显示结果
saveboolFalse保存带有结果的图像
save_txtboolFalse将结果保存为.txt文件
save_confboolFalse保存带有置信度分数的结果
save_cropboolFalse保存带有结果的裁剪图像
show_labelsboolTrue隐藏标签
show_confboolTrue隐藏置信度分数
max_detint300每张图像的最大检测数量
vid_strideboolFalse视频帧速率跳跃
stream_bufferboolFalse缓冲所有流媒体帧(True)或返回最新帧(False)
line_widthNone or intNone边框线宽度。如果为None,则按图像大小缩放。
visualizeboolFalse可视化模型特征
augmentboolFalse应用图像增强到预测源
agnostic_nmsboolFalse类别不敏感的NMS
retina_masksboolFalse使用高分辨率分割掩码
classesNone or listNone按类别过滤结果,例如 classes=0,或 classes=[0,2,3]
boxesboolTrue在分割预测中显示框

model.predict() 在推理时接受多个参数,可以用来覆盖默认值:

from ultralytics import YOLO

# 加载预训练的YOLOv8n模型
model = YOLO('yolov8n.pt')

# 在'bus.jpg'上运行推理,并附加参数
model.predict('bus.jpg', save=True, imgsz=320, conf=0.5)

七. yolov8预测结果的处理

所有Ultralytics的predict()调用都将返回一个Results对象列表:

from ultralytics import YOLO

# 加载预训练的YOLOv8n模型
model = YOLO('yolov8n.pt')

# 在图片上运行推理
results = model('bus.jpg')  # 1个Results对象的列表
results = model(['bus.jpg', 'zidane.jpg'])  # 2个Results对象的列表

Results对象具有以下属性:

属性类型描述
orig_imgnumpy.ndarray原始图像的numpy数组。
orig_shapetuple原始图像的形状,格式为(高度,宽度)。
boxesBoxes, 可选包含检测边界框的Boxes对象。
masksMasks, 可选包含检测掩码的Masks对象。
probsProbs, 可选包含每个类别的概率的Probs对象,用于分类任务。
keypointsKeypoints, 可选包含每个对象检测到的关键点的Keypoints对象。
speeddict以毫秒为单位的每张图片的预处理、推理和后处理速度的字典。
namesdict类别名称的字典。
pathstr图像文件的路径。

Results对象具有以下方法:

方法返回类型描述
__getitem__()Results返回指定索引的Results对象。
__len__()int返回Results对象中的检测数量。
update()None更新Results对象的boxes, masks和probs属性。
cpu()Results将所有张量移动到CPU内存上的Results对象的副本。
numpy()Results将所有张量转换为numpy数组的Results对象的副本。
cuda()Results将所有张量移动到GPU内存上的Results对象的副本。
to()Results返回将张量移动到指定设备和dtype的Results对象的副本。
new()Results返回一个带有相同图像、路径和名称的新Results对象。
keys()List[str]返回非空属性名称的列表。
plot()numpy.ndarray绘制检测结果。返回带有注释的图像的numpy数组。
verbose()str返回每个任务的日志字符串。
save_txt()None将预测保存到txt文件中。
save_crop()None将裁剪的预测保存到save_dir/cls/file_name.jpg
tojson()None将对象转换为JSON格式。

有关更多详细信息,请参阅Results类的文档

1. 边界框(Boxes)

Boxes对象可用于索引、操作和转换边界框到不同格式。

from ultralytics import YOLO

# 加载预训练的YOLOv8n模型
model = YOLO('yolov8n.pt')

# 在图片上运行推理
results = model('bus.jpg')

# 查看结果
for r in results:
    print(r.boxes)  # 打印包含检测边界框的Boxes对象

以下是Boxes类方法和属性的表格,包括它们的名称、类型和description:

名称类型描述
cpu()方法将对象移动到CPU内存。
numpy()方法将对象转换为numpy数组。
cuda()方法将对象移动到CUDA内存。
to()方法将对象移动到指定的设备。
xyxy属性 (torch.Tensor)以xyxy格式返回边界框。
conf属性 (torch.Tensor)返回边界框的置信度值。
cls属性 (torch.Tensor)返回边界框的类别值。
id属性 (torch.Tensor)返回边界框的跟踪ID(如果可用)。
xywh属性 (torch.Tensor)以xywh格式返回边界框。
xyxyn属性 (torch.Tensor)以原始图像大小归一化的xyxy格式返回边界框。
xywhn属性 (torch.Tensor)以原始图像大小归一化的xywh格式返回边界框。

有关更多详细信息,请参阅Boxes类的文档

2. 掩码(Masks)

Masks对象可用于索引、操作和将掩码转换为分段。

from ultralytics import YOLO

# 加载预训练的YOLOv8n-seg分割模型
model = YOLO('yolov8n-seg.pt')

# 在图片上运行推理
results = model('bus.jpg')  # results列表

# 查看结果
for r in results:
    print(r.masks)  # 打印包含检测到的实例掩码的Masks对象

以下是Masks类方法和属性的表格,包括它们的名称、类型和description:

名称类型描述
cpu()方法将掩码张量返回到CPU内存。
numpy()方法将掩码张量转换为numpy数组。
cuda()方法将掩码张量返回到GPU内存。
to()方法将掩码张量带有指定设备和dtype返回。
xyn属性 (torch.Tensor)以张量表示的归一化分段的列表。
xy属性 (torch.Tensor)以像素坐标表示的分段的张量列表。

有关更多详细信息,请参阅Masks类的文档

3. 关键点 (Keypoints)

Keypoints 对象可以用于索引、操作和规范化坐标。

from ultralytics import YOLO

# 加载预训练的YOLOv8n-pose 姿态模型
model = YOLO('yolov8n-pose.pt')

# 在图像上运行推理
results = model('bus.jpg')  # 结果列表

# 查看结果
for r in results:
    print(r.keypoints)  # 打印包含检测到的关键点的Keypoints对象

以下是Keypoints类方法和属性的表格,包括它们的名称、类型和description:

名称类型描述
cpu()方法返回CPU内存上的关键点张量。
numpy()方法返回作为numpy数组的关键点张量。
cuda()方法返回GPU内存上的关键点张量。
to()方法返回指定设备和dtype的关键点张量。
xyn属性(torch.Tensor规范化关键点的列表,表示为张量。
xy属性(torch.Tensor以像素坐标表示的关键点列表,表示为张量。
conf属性(torch.Tensor返回关键点的置信度值(如果有),否则返回None。

有关更多详细信息,请参阅Keypoints文档

4. 概率 (Probs)

Probs 对象可以用于索引,获取分类的 top1top5 索引和分数。

from ultralytics import YOLO

# 加载预训练的YOLOv8n-cls 分类模型
model = YOLO('yolov8n-cls.pt')

# 在图像上运行推理
results = model('bus.jpg')  # 结果列表

# 查看结果
for r in results:
    print(r.probs)  # 打印包含检测到的类别概率的Probs对象

以下是Probs类的方法和属性的表格总结:

名称类型描述
cpu()方法返回CPU内存上的概率张量的副本。
numpy()方法返回概率张量的副本作为numpy数组。
cuda()方法返回GPU内存上的概率张量的副本。
to()方法返回带有指定设备和dtype的概率张量的副本。
top1属性(int第1类的索引。
top5属性(list[int]前5类的索引。
top1conf属性(torch.Tensor第1类的置信度。
top5conf属性(torch.Tensor前5类的置信度。

有关更多详细信息,请参阅Probs文档

八. yolov8对结果进行绘图

您可以使用Result对象的plot()方法来可视化预测结果。它会将Results对象中包含的所有预测类型(框、掩码、关键点、概率等)绘制到一个numpy数组上,然后可以显示或保存。

from PIL import Image
from ultralytics import YOLO

# 加载预训练的YOLOv8n模型
model = YOLO('yolov8n.pt')

# 在'bus.jpg'上运行推理
results = model('bus.jpg')  # 结果列表

# 展示结果
for r in results:
    im_array = r.plot()  # 绘制包含预测结果的BGR numpy数组
    im = Image.fromarray(im_array[..., ::-1])  # RGB PIL图像
    im.show()  # 显示图像
    im.save('results.jpg')  # 保存图像

plot()方法支持以下参数:

参数类型描述默认值
confbool是否绘制检测置信度分数。True
line_widthfloat边框线宽度。如果为None,则按图像大小缩放。None
font_sizefloat文本字体大小。如果为None,则按图像大小缩放。None
fontstr文本字体。'Arial.ttf'
pilbool是否将图像返回为PIL图像。False
imgnumpy.ndarray绘制到另一个图像上。如果没有,则绘制到原始图像上。None
im_gputorch.Tensor形状为(1, 3, 640, 640)的规范化GPU图像,用于更快地绘制掩码。None
kpt_radiusint绘制关键点的半径。默认为5。5
kpt_linebool是否绘制连接关键点的线条。True
labelsbool是否绘制边框标签。True
boxesbool是否绘制边框。True
masksbool是否绘制掩码。True
probsbool是否绘制分类概率True
  • 37
    点赞
  • 145
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AoDeLuo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值