-
lr0 (初始学习率): 控制模型训练过程中的步长,影响训练的收敛速度和稳定性。较高的学习率可能导致训练不稳定或震荡,而较低的学习率则可能使训练过慢或陷入局部最优解。
-
lrf (最终学习率): 影响学习率衰减的程度。最终学习率较低可以让模型在训练后期更精细地调整权重,有助于更好地收敛。
-
momentum (动量): 通过积累过去梯度的影响来加速收敛,减少训练过程中的震荡。较高的动量值可以使优化过程更平滑,但也可能导致过度震荡。
-
weight_decay (权重衰减): 通过对较大权重施加惩罚来防止模型过拟合。较大的权重衰减值可以提高模型的泛化能力,但可能导致欠拟合。
-
warmup_epochs (预热周期数): 在训练初期逐步增加学习率可以减少训练的不稳定性。适当的预热阶段可以帮助模型更平稳地开始训练。
-
warmup_momentum (预热阶段的初始动量值): 在预热阶段逐步增加动量值可以提高训练的稳定性,防止初期的动量过大导致的震荡。
-
warmup_bias_lr (预热阶段的偏置学习率): 在预热阶段逐步增加偏置的学习率可以使训练过程更稳定,避免初期偏置更新过快。
-
box (框损失增益): 控制目标框回归损失的权重。增大该值可以提高模型对目标框位置的精度,但可能导致定位误差过大。
-
cls (分类损失增益): 控制分类损失的权重,影响模型的分类准确性。较高的值可以提高分类精度,但可能导致定位精度下降。
-
dfl (DFL 损失增益): 影响目标定位的精度。较高的 DFL 损失增益可以提高目标检测中的位置精度,但可能增加计算复杂度。
-
pose (pose 损失增益): 控制姿态估计损失的权重。在有姿态估计需求的任务中,调整该值可以改善姿态预测的精度。
-
kobj (关键点目标损失增益): 影响关键点检测的精度。较高的值可以提高关键点检测的准确性,但也可能增加计算复杂度。
-
label_smoothing (标签平滑度): 减少标签的硬性标记,使训练过程更鲁棒,减少过拟合的风险,提高模型在不同数据上的泛化能力。
-
nbs (名义批量大小): 用于调整训练批次大小,以平衡显存使用。批量大小影响训练的稳定性和模型的收敛速度。
-
hsv_h (图像 HSV 色调增广范围): 调整图像的色调范围,可以提高模型对色调变化的鲁棒性,增强数据的多样性。
-
hsv_s (图像 HSV 饱和度增广范围): 调整图像的饱和度,使模型对不同的饱和度变化更具鲁棒性。
-
hsv_v (图像 HSV 明亮度增广范围): 调整图像的亮度,可以提高模型对亮度变化的适应能力。
-
degrees (图像旋转角度范围): 图像旋转可以增加训练数据的多样性,使模型对旋转变换更具鲁棒性。
-
translate (图像平移范围): 图像平移增加数据的多样性,帮助模型处理图像中的偏移和位移。
-
scale (图像缩放范围): 图像缩放变化可以提高模型对不同尺度物体的检测能力。
-
shear (图像剪切角度): 图像剪切增强数据的多样性,使模型更具鲁棒性,可以处理不同的形变。
-
perspective (图像透视变换范围): 透视变换增加了数据的变化,使模型对不同的透视效果更具鲁棒性。
-
flipud (图像上下翻转概率): 数据增强的一种方法,可以提高模型对上下翻转图像的处理能力。
-
fliplr (图像左右翻转概率): 数据增强的一种方法,通过左右翻转增加训练数据的多样性,提高模型的鲁棒性。
-
bgr (图像通道 BGR 的概率): 用于数据增强,可以改变图像的颜色通道顺序,增加模型对不同颜色通道的适应能力。
-
mosaic (图像马赛克数据增强概率): 通过拼接多个图像生成新的训练样本,提高模型对复杂背景的鲁棒性。
-
mixup (图像混合数据增强概率): 将两张图像混合生成新的样本,增强模型的泛化能力。
-
copy_paste (图像复制粘贴数据增强概率): 将图像中的一部分复制到另一部分,增加训练数据的多样性。
-
auto_augment (自动数据增强策略): 通过选择不同的数据增强策略,提高模型的性能和泛化能力。
-
erasing (随机擦除的概率): 随机擦除图像中的部分区域,增强模型的鲁棒性,减少对特定区域的过度依赖。
-
crop_fraction (图像裁剪比例): 用于分类评估或推理时裁剪图像的比例,影响模型对不同裁剪区域的适应能力。
11-09
361
![](https://csdnimg.cn/release/blogv2/dist/pc/img/readCountWhite.png)