Yolov8不废话!参考手册!

Yolov8使用

yolo task=detect mode=train model=yolov8n.pt       args...
          classify    predict     yolov8n-cls.yaml args...
          segment     val         yolov8n-seg.yaml args...
          export                  yolov8n.pt       format=onnx args...

使用Ultralytics YOLO进行模型训练

* 如COCO、VOC、ImageNet等YOLOv8数据集在首次使用时会自动下载,即 `yolo train data=coco.yaml`

使用示例

姿态模型

from ultralytics import YOLO

# 加载模型
model = YOLO('yolov8n-pose.yaml')  # 从YAML构建一个新模型
model = YOLO('model/yolov8n-pose.pt')  # 加载一个预训练模型(推荐用于训练)
model = YOLO('yolov8n-pose.yaml').load('yolov8n-pose.pt')  # 从YAML构建并传输权重

# 训练模型
results = model.train(data='coco8-pose.yaml', epochs=100, imgsz=640)
# 从YAML构建一个新模型并从头开始训练
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640

# 从一个预训练的*.pt模型开始训练
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640

# 从YAML构建一个新模型,传输预训练权重并开始训练
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640

目标检测

from ultralytics import YOLO

# 加载模型
model = YOLO('yolov8n.yaml')  # 从YAML构建新模型
model = YOLO('model/yolov8n.pt')  # 加载预训练模型(推荐用于训练)
model = YOLO('yolov8n.yaml').load('yolov8n.pt')  # 从YAML构建并转移权重

# 训练模型
results = model.train(data='coco128.yaml', epochs=100, imgsz=640)
# 从YAML构建新模型并从头开始训练
yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640

# 从预训练的*.pt模型开始训练
yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640

# 从YAML构建新模型,传递预训练权重并开始训练
yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640

数据集格式

在COCO128数据集上训练YOLOv8n模型100个时期,图像大小为640。可以使用device
参数指定训练设备。如果没有传递参数,并且有可用的GPU,则将使用GPU device=0,否则将使用device=cpu。有关完整列表的训练参数,请参见下面的参数部分。

!!! 示例 “单GPU和CPU训练示例”

设备将自动确定。如果有可用的GPU,那么将使用它,否则将在CPU上开始训练。

from ultralytics import YOLO

# 加载一个模型
model = YOLO('yolov8n.yaml')  # 从YAML建立一个新模型
model = YOLO('model/yolov8n.pt')  # 加载预训练模型(推荐用于训练)
model = YOLO('yolov8n.yaml').load('yolov8n.pt')  # 从YAML建立并转移权重

# 训练模型
results = model.train(data='coco128.yaml', epochs=100, imgsz=640)
# 从YAML构建新模型,从头开始训练
yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640

# 从预训练*.pt模型开始训练
yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640

# 从YAML构建一个新模型,转移预训练权重,然后开始训练
yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640

多GPU训练

多GPU训练通过在多个GPU上分布训练负载,实现对可用硬件资源的更有效利用。无论是通过Python API还是命令行界面,都可以使用此功能。
若要启用多GPU训练,请指定您希望使用的GPU设备ID。

要使用2个GPU进行训练,请使用CUDA设备0和1,使用以下命令。根据需要扩展到更多GPU。

from ultralytics import YOLO

# 加载模型
model = YOLO('model/yolov8n.pt')  # 加载预训练模型(推荐用于训练)

# 使用2个GPU训练模型
results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device=[0, 1])
# 使用GPU 0和1从预训练*.pt模型开始训练
yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1

恢复中断的训练

在处理深度学习模型时,从之前保存的状态恢复训练是一个关键特性。在各种情况下,这可能很方便,比如当训练过程意外中断,或者当您希望用新数据或更多时期继续训练模型时。

恢复训练时,Ultralytics YOLO将加载最后保存的模型的权重,并恢复优化器状态、学习率调度器和时期编号。这允许您无缝地从离开的地方继续训练过程。

在Ultralytics YOLO中,您可以通过在调用train方法时将resume参数设置为True并指定包含部分训练模型权重的.pt
文件路径来轻松恢复训练。

下面是使用Python和命令行恢复中断训练的示例:

from ultralytics import YOLO

# 加载模型
model = YOLO('path/to/last.pt')  # 加载部分训练的模型

# 恢复训练
results = model.train(resume=True)
# 恢复中断的训练
yolo train resume model=path/to/last.pt

通过设置resume=Truetrain函数将从’path/to/last.pt’文件中存储的状态继续训练。如果省略resume
参数或将其设置为Falsetrain函数将启动新的训练会话。

请记住,默认情况下,检查点会在每个时期结束时保存,或者使用save_period参数以固定间隔保存,因此您必须至少完成1个时期才能恢复训练运行。

参数

YOLO模型的训练设置是指用于对数据集进行模型训练的各种超参数和配置。这些设置会影响模型的性能、速度和准确性。一些常见的YOLO训练设置包括批大小、学习率、动量和权重衰减。其他可能影响训练过程的因素包括优化器的选择、损失函数的选择以及训练数据集的大小和组成。仔细调整和实验这些设置以实现给定任务的最佳性能是非常重要的。

描述
modelNone模型文件路径,例如 yolov8n.pt, yolov8n.yaml
dataNone数据文件路径,例如 coco128.yaml
epochs100训练的轮次数量
patience50早停训练的等待轮次
batch16每批图像数量(-1为自动批大小)
imgsz640输入图像的大小,以整数表示
saveTrue保存训练检查点和预测结果
save_period-1每x轮次保存检查点(如果<1则禁用)
cacheFalseTrue/ram, disk 或 False。使用缓存加载数据
deviceNone运行设备,例如 cuda device=0 或 device=0,1,2,3 或 device=cpu
workers8数据加载的工作线程数(如果DDP则为每个RANK)
projectNone项目名称
nameNone实验名称
exist_okFalse是否覆盖现有实验
pretrainedTrue(bool 或 str) 是否使用预训练模型(bool)或从中加载权重的模型(str)
optimizer'auto'使用的优化器,选择范围=[SGD, Adam, Adamax, AdamW, NAdam, RAdam, RMSProp, auto]
verboseFalse是否打印详细输出
seed0随机种子,用于可重复性
deterministicTrue是否启用确定性模式
single_clsFalse将多类数据作为单类训练
rectFalse矩形训练,每批为最小填充整合
cos_lrFalse使用余弦学习率调度器
close_mosaic10(int) 最后轮次禁用马赛克增强(0为禁用)
resumeFalse从最后检查点恢复训练
ampTrue自动混合精度(AMP)训练,选择范围=[True, False]
fraction1.0训练的数据集比例(默认为1.0,即训练集中的所有图像)
profileFalse在训练期间为记录器分析ONNX和TensorRT速度
freezeNone(int 或 list, 可选) 在训练期间冻结前n层,或冻结层索引列表
lr00.01初始学习率(例如 SGD=1E-2, Adam=1E-3)
lrf0.01最终学习率 (lr0 * lrf)
momentum0.937SGD动量/Adam beta1
weight_decay0.0005优化器权重衰减5e-4
warmup_epochs3.0热身轮次(小数ok)
warmup_momentum0.8热身初始动量
warmup_bias_lr0.1热身初始偏差lr
box7.5框损失增益
cls0.5cls损失增益(根据像素缩放)
dfl1.5dfl损失增益
pose12.0姿态损失增益(仅限姿态)
kobj2.0关键点obj损失增益(仅限姿态)
label_smoothing0.0标签平滑(小数)
nbs64标称批大小
overlap_maskTrue训练期间掩码应重叠(仅限分割训练)
mask_ratio4掩码降采样比率(仅限分割训练)
dropout0.0使用dropout正则化(仅限分类训练)
valTrue训练期间验证/测试

记录

在训练YOLOv8模型时,跟踪模型随时间的性能变化可能非常有价值。这就是记录发挥作用的地方。Ultralytics的YOLO提供对三种类型记录器的支持 -
Comet、ClearML和TensorBoard。

要使用记录器,请在上面的代码片段中的下拉菜单中选择它并运行。所选的记录器将被安装和初始化。

TensorBoard

TensorBoard
是TensorFlow的可视化工具包。它允许您可视化TensorFlow图表,绘制有关图表执行的定量指标,并展示通过它的附加数据,如图像。

Google Colab
中使用TensorBoard:

load_ext tensorboard
tensorboard --logdir ultralytics/runs  # 替换为'runs'目录

在本地使用TensorBoard,运行下面的命令并在 http://localhost:6006/ 查看结果。

tensorboard --logdir ultralytics/runs  # 替换为'runs'目录

这将加载TensorBoard并将其定向到保存训练日志的目录。

在设置好日志记录器后,您可以继续进行模型训练。所有训练指标将自动记录在您选择的平台中,您可以访问这些日志以监控模型随时间的表现,比较不同模型,并识别改进的领域。

Ultralytics YOLO 的模型导出

使用示例

将 YOLOv8n 模型导出为 ONNX 或 TensorRT 等不同格式。查看下面的参数部分,了解完整的导出参数列表。

from ultralytics import YOLO

# 加载模型
model = YOLO('model/yolov8n.pt')  # 加载官方模型
model = YOLO('path/to/best.pt')  # 加载自定义训练的模型

# 导出模型
model.export(format='onnx')
yolo export model=yolov8n.pt format=onnx  # 导出官方模型
yolo export model=path/to/best.pt format=onnx  # 导出自定义训练的模型

参数

YOLO 模型的导出设置是指用于在其他环境或平台中使用模型时保存或导出模型的各种配置和选项。这些设置会影响模型的性能、大小和与不同系统的兼容性。一些常见的
YOLO 导出设置包括导出的模型文件格式(例如 ONNX、TensorFlow SavedModel)、模型将在哪个设备上运行(例如
CPU、GPU)以及是否包含附加功能,如遮罩或每个框多个标签。其他可能影响导出过程的因素包括模型用途的具体细节以及目标环境或平台的要求或限制。重要的是要仔细考虑和配置这些设置,以确保导出的模型针对预期用例经过优化,并且可以在目标环境中有效使用。

描述
format'torchscript'导出的格式
imgsz640图像尺寸,可以是标量或 (h, w) 列表,比如 (640, 480)
kerasFalse使用 Keras 导出 TF SavedModel
optimizeFalseTorchScript:为移动设备优化
halfFalseFP16 量化
int8FalseINT8 量化
dynamicFalseONNX/TensorRT:动态轴
simplifyFalseONNX/TensorRT:简化模型
opsetNoneONNX:opset 版本(可选,默认为最新版本)
workspace4TensorRT:工作区大小(GB)
nmsFalseCoreML:添加 NMS

导出格式

下表中提供了可用的 YOLOv8 导出格式。您可以使用 format 参数导出任何格式的模型,比如 format='onnx'format='engine'

格式format 参数模型元数据参数
PyTorch-yolov8n.pt-
TorchScripttorchscriptyolov8n.torchscriptimgsz, optimize
ONNXonnxyolov8n.onnximgsz, half, dynamic, simplify, opset
OpenVINOopenvinoyolov8n_openvino_model/imgsz, half
TensorRTengineyolov8n.engineimgsz, half, dynamic, simplify, workspace
CoreMLcoremlyolov8n.mlpackageimgsz, half, int8, nms
TF SavedModelsaved_modelyolov8n_saved_model/imgsz, keras
TF GraphDefpbyolov8n.pbimgsz
TF Litetfliteyolov8n.tfliteimgsz, half, int8
TF Edge TPUedgetpuyolov8n_edgetpu.tfliteimgsz
TF.jstfjsyolov8n_web_model/imgsz
PaddlePaddlepaddleyolov8n_paddle_model/imgsz
ncnnncnnyolov8n_ncnn_model/imgsz, half

Yolov8 训练代码+部署事例+参考手册 1G资料

下载链接:点击下载
资料压缩包

  • 22
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
YOLOv8的参考文献主要包括以下几个来源。首先,关于YOLOv8的理论部分,可以参考RepVGG作者在知乎上的文章。该文章的链接是:https://zhuanlan.zhihu.com/p/344324470。 其次,YOLOv8是由开发YOLOv5的公司Ultralytics于2023年1月发布的。尽管目前还没有关于YOLOv8的论文,但我们可以通过深入了解与其他YOLO版本相比的架构决策来了解它。根据当前的趋势,YOLOv8是无锚的,并减少了框预测的数量,从而加快了非最大值抑制(NMS)的速度。此外,在训练时,YOLOv8使用了马赛克增强,不过在最后十个历元中已经禁用了这种增强,因为发现如果在整个训练过程中使用可能是有害的。 此外,YOLOv8提供了5个缩放版本:YOLOv8n(nano)、YOLOv8s(small)、YOLOv8m(medium)、YOLOv8l(large)和YOLOv8x(extra large)。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [改进YOLOv5、YOLOv8系列:29.YOLOv5 结合 极简又强大的RepVGG 重参数化模型结构](https://blog.csdn.net/qq_38668236/article/details/126735476)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [YOLO综述](https://blog.csdn.net/qq_54372122/article/details/130012392)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Dyyyyyxxxx

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值