YOLO训练参数设置解析

笔者按照教程训练完YOLO后对train训练参数配置产生兴趣,因此下文参考官方文档进行总结

Train - Ultralytics YOLO Docs

YOLO 模型的训练设置包括训练过程中使用的各种超参数和配置。 这些设置会影响模型的性能、速度和准确性。 关键的训练设置包括批量大小、学习率、动量和权重衰减。 此外,优化器、损失函数和训练数据集组成的选择也会影响训练过程。 对这些设置进行仔细的调整和实验对于优化性能至关重要。

翻译版本:

参数默认值描述
modelNone指定用于训练的模型文件。 接受 .pt 预训练模型.yaml 配置文件的路径。 对于定义模型结构或初始化权重至关重要。
dataNone数据集配置文件(如 coco8.yaml)的路径。 该文件包含特定于数据集的参数,包括训练数据和验证数据的路径、类名和类数量。
epochs100训练历元总数。 每个epoch代表对整个数据集的一次完整检测。 调整该值会影响训练时间和模型性能。
timeNone如果设置了这个参数,它将取代 epochs 参数,允许训练在指定时间后自动停止。 对于时间有限的训练场景非常有用。
patience100在验证指标没有改善的情况下,提前停止训练所需的历元数。 当性能趋于平稳时停止训练,有助于防止过度拟合。
batch16Batch size, 有三种模式:设置为整数(如 batch=16)、GPU 内存利用率为 60% 的自动模式(batch=-1)或指定利用率分数的自动模式(batch=0.70)。
imgsz640所有图像在输入模型前都会被调整到这一尺寸。 影响模型精度和计算复杂度
saveTrue可保存训练检查点和最终模型权重。 有助于恢复训练或模型部署。
save_period-1保存模型检查点的频率,以 epochs 为单位。 如果值为 -1 则禁用此功能。 该功能适用于在长时间训练过程中保存临时模型。
cacheFalse启用内存(True/ram)、磁盘(disk)中的数据集映像缓存,或禁用(False)。 通过减少磁盘 I/O,提高训练速度,但代价是增加内存使用量。
deviceNone指定用于训练的计算设备:单个 GPU(device=0)、多个 GPU(device=0,1)、CPU(device=cpu)或苹果芯片的 MPS(device=mps)。
workers8用于加载数据的工作线程数(如果使用多 GPU 训练,则为每个 RANK)。 影响数据预处理和输入模型的速度,尤其适用于多 GPU 设置。
projectNone保存训练结果的项目目录名称。 允许有组织地存储不同的实验。
nameNone训练运行的名称。 用于在项目文件夹内创建一个子目录,用于存储训练日志和输出结果。
exist_okFalse如果为 True,则允许覆盖现有的项目/名称目录。 这对迭代实验非常有用,无需手动清除之前的输出。
pretrainedTrue决定是否从预处理模型开始训练。 可以是布尔值,也可以是加载权重的特定模型的字符串路径。 提高训练效率和模型性能。
optimizer'auto'选择用于训练的优化器。 选项包括 SGD、Adam、AdamW、NAdam、RAdam、RMSProp 等,或根据模型配置自动选择。 影响收敛速度和稳定性
verboseFalse在培训期间启用冗余输出,提供详细的日志和进度更新。 有助于调试和密切监控培训过程。
seed0为训练设置随机种子,确保在相同配置下运行的结果具有可重复性。
deterministicTrue强制使用确定性算法,确保可重复性,但由于对非确定性算法的限制,可能会影响性能和速度。
single_clsFalse在训练过程中将多类数据集中的所有类别视为单一类别。 适用于二元分类任务,或侧重于对象的存在而非分类
rectFalse可进行矩形训练,优化批次组成以减少填充。 这可以提高效率和速度,但可能会影响模型的准确性。
cos_lrFalse利用余弦学习率调度器,根据历时的余弦曲线调整学习率。 这有助于管理学习率,实现更好的收敛。
close_mosaic10最后 N 个历元中禁用马赛克数据增强,以便在训练完成前保持稳定。 设置为 0 则禁用此功能。
resumeFalse从上次保存的检查点恢复训练。 自动加载模型权重、优化器状态和历时计数,无缝继续训练。
ampTrue启用自动混合精度 (AMP) 训练,可减少内存使用量并加快训练速度,同时将对精度的影响降至最低。
fraction1.0指定用于训练的数据集分数。 允许在完整数据集的子集上进行训练,这对实验或资源有限的情况非常有用。
profileFalse可在训练过程中分析 ONNX 和 TensorRT 的速度,这对优化模型部署非常有用。
freezeNone冻结模型的前 N 层或按索引指定的层,从而减少可训练参数的数量。 这对微调或迁移学习非常有用。
lr00.01初始学习率(即 SGD=1E-2,Adam=1E-3) . 调整这个值对优化过程至关重要,会影响模型权重的更新速度。
lrf0.01最终学习率为初始学习率的一部分 = (lr0 * lrf),与调度器结合使用,用于调整学习率。
momentum0.937用于 SGD 的动量因子,或用于 Adam 优化器的 beta1,用于将过去的梯度纳入当前更新。
weight_decay0.0005L2 正则化项,对大权重进行惩罚,以防止过度拟合。
warmup_epochs3.0学习率预热的历元数,学习率从低值逐渐增加到初始学习率,以在早期稳定训练。
warmup_momentum0.8热身阶段的初始动量,在热身期间逐渐调整到设定动量。
warmup_bias_lr0.1热身阶段的偏置参数学习率,有助于稳定初始历元的模型训练。
box7.5损失函数中边框损失部分的权重,影响对准确预测边框坐标的重视程度。
cls0.5分类损失在总损失函数中的权重,影响正确分类预测相对于其他部分的重要性。
dfl1.5分布焦点损失权重,在某些 YOLO 版本中用于精细分类。
pose12.0姿态损失在姿态估计模型中的权重,影响着准确预测姿态关键点的重点。
kobj2.0姿态估计模型中关键点对象性损失的权重,平衡检测可信度与姿态精度。
label_smoothing0.0应用标签平滑,将硬标签软化为目标标签和标签均匀分布的混合标签,可以提高泛化效果。
nbs64用于损耗正常化的标称批量大小。
overlap_maskTrue决定在训练过程中分割掩码是否应该重叠,适用于实例分割任务。
mask_ratio4分割掩码的下采样率,影响训练时使用的掩码分辨率。
dropout0.0分类任务中正则化的丢弃率,通过在训练过程中随机省略单元来防止过拟合。
valTrue可在训练过程中进行验证,以便在单独的数据集上对模型性能进行定期评估。
plotsFalse生成并保存训练和验证指标图以及预测示例图,以便直观地了解模型性能和学习进度。
YOLO(You Only Look Once)是一种目标检测算法,它可以通过一次前向传递来检测图像中的物体。YOLO训练工具源码是指用于训练YOLO算法的相关代码。 YOLO训练工具的源码包含了一系列函数和类,用于数据的准备、模型的构建和训练、以及结果的评估等过程。 在数据准备阶段,源码提供了函数来读取并解析标注文件,将图像和标签数据组织成模型所需的格式。这些数据包括图像的像素值和对应的物体标签信息,用于训练模型。 在模型构建和训练阶段,源码提供了模型结构定义的类,包括卷积层、池化层和全连接层等。通过设置不同的网络结构和超参数,可以构建不同版本的YOLO算法。源码还提供了损失函数的定义和优化器的选择,用于根据训练数据来更新网络参数,以最小化目标函数。 在结果评估阶段,源码提供了计算模型性能指标的函数,如平均精度(mAP)和准确率(accuracy)。这些指标可以用于评估模型在检测物体时的准确度和稳定性。 通过使用YOLO训练工具的源码,我们可以根据自己的需求进行调整和修改,以适应不同的数据集和目标检测任务。通过反复实验和训练,可以提高模型的性能,并得到更准确的检测结果。 总之,YOLO训练工具源码是一种用于训练YOLO算法的代码集合,它提供了数据准备、模型构建和训练、以及结果评估的函数和类,帮助我们实现高效准确的目标检测。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值