YOLOv8手把手详细教程,训练自定义数据集

【YOLOv8教程】(手把手详细版,支持训练自定义数据集),包含环境配置、数据配置、训练、预测、验证、导出

1.环境配置

  • Ubuntu 18.04
  • CUDA 11.0.3
  • Python 3.8.5
  • Pytorch 1.7.1
  • torchvision 0.8.2

进入虚拟环境,安装YOLOv8,官方给了两种安装方式:

第一种(推荐)

pip install

 pip install ultralytics

第二种

git clone

git clone https://github.com/ultralytics/ultralytics
cd ultralytics
pip install -e .

2.准备自己的数据

(1)文件目录结构

有四个文件夹dataset, images, labels, xml
dataset 数据集划分train.txt, val.txt, trainval.txt, test.txt
images 存放图片
labels 存放标注txt文件
xml 存放标注xml文件


└── one
    ├── dataset
    ├── images
    ├── labels
    └── xml

(2)一个文件夹中不同后缀名的文件分离出来

例如.img, .txt, .xml

import os
import shutil

path_xml = "/home/wanglu/detection/one/1jiwei"
filelist = os.listdir(path_xml)
path1 = "/home/wanglu/detection/one/1jiweiimages/"
path2 = "/home/wanglu/detection/one/1jiweilabels/"
path3 = "/home/wanglu/detection/one/1jiweixml/"


for files in filelist:
    filename1 = os.path.splitext(files)[1]  # 读取文件后缀名
    filename0 = os.path.splitext(files)[0]  #读取文件名
    # print(filename1)
    # m = filename1 == '.txt'
    # print(m)
    if filename1 == '.txt' :
        full_path = os.path.join(path_xml, files)
        despath = path2 + filename0 +'.txt' #.txt为你的文件类型,即后缀名,读者自行修改
        shutil.move(full_path, despath)

    if filename1 == '.jpg':
        full_path = os.path.join(path_xml, files)
        despath = path1 + filename0 + '.jpg'  #.jpg为你的文件类型,即后缀名,读者自行修改
        shutil.move(full_path, despath)

    if filename1 == '.xml':
        full_path = os.path.join(path_xml, files)
        despath = path3 + filename0 + '.xml'  # .xml为你的文件类型,即后缀名,读者自行修改
        shutil.move(full_path, despath)

(3)数据集划分

新建split_train_val.py文件,生成上述dataset文件夹中train.txt, val.txt, trainval.txt, test.txt文件

# coding:utf-8
 
import os
import random
import argparse
 
parser = argparse.ArgumentParser()
#xml文件的地址,根据自己的数据进行修改 xml一般存放在Annotations下
parser.add_argument('--xml_path', default='/home/wanglu/detection/one/one/xml', type=str, help='input xml label path')
#数据集的划分,地址选择自己数据下的ImageSets/Main
parser.add_argument('--txt_path', default='/home/wanglu/detection/one/one/dataset', type=str, help='output txt label path')
opt = parser.parse_args()
 
trainval_percent = 0.9
train_percent = 0.8
xmlfilepath = opt.xml_path
txtsavepath = opt.txt_path
total_xml = os.listdir(xmlfilepath)
if not os.path.exists(txtsavepath):
    os.makedirs(txtsavepath)
 
num = len(total_xml)
list_index = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list_index, tv)
train = random.sample(trainval, tr)
 
file_trainval = open(txtsavepath + '/trainval.txt', 'w')
file_test = open(txtsavepath + '/test.txt', 'w')
file_train = open(txtsavepath + '/train.txt', 'w')
file_val = open(txtsavepath + '/val.txt', 'w')
 
for i in list_index:
    name ='/home/wanglu/detection/one/one/images/' + total_xml[i][:-4] + '.jpg\n'
    if i in trainval:
        file_trainval.write(name)
        if i in train:
            file_train.write(name)
        else:
            file_val.write(name)
    else:
        file_test.write(name)
 
file_trainval.close()
file_train.close()
file_val.close()
file_test.close()

(4)新建数据配置文件

在ultralytics/ultralytics/datasets/文件夹下新建dengjianji.yaml
文件路径
ultralytics/ultralytics/datasets/dengjianji.yaml


train: # train images (relative to 'path')  
  /home/wanglu/detection/one/one/dataset/trainval.txt
val: # val images (relative to 'path')  
  /home/wanglu/detection/one/one/dataset/test.txt
test: # test images (optional)
  /home/wanglu/detection/one/one/dataset/test.txt

# number of classes 
nc: 20

# Classes
names:
  0: ganjing
  1: guahua
  2: liewen_pingshen
  3: heidian
  4: liangshao
  5: jingshangfen
  6: gouya
  7: juzui
  8: gehen
  9: lvgai
  10: zhabutie
  11: gaisong
  12: quegai
  13: pingzi
  14: liewen_pingdi
  15: bianxing
  16: liang
  17: aoxian
  18: xianglianhuan
  19: ganjing_fx

至此数据集的准备已经完成,可以开始训练啦!

3. 模型训练、验证、预测、导出

3.1 训练

YOLOv8 训练介绍
CLI命令行训练(推荐)

yolo task=detect    mode=train    model=yolov8n.pt        args...
          classify       predict        yolov8n-cls.yaml  args...
          segment        val            yolov8n-seg.yaml  args...
                         export         yolov8n.pt        format=onnx  args...

(1)单卡训练

yolo detect train data=/home/wanglu/ultralytics/ultralytics/datasets/dengjianji.yaml model=yolov8x.pt batch=32 epochs=480 imgsz=640 device='0,1,2,3'

(2)多卡训练

直接指定device=‘0, 1, 2, 3’,即可实现多卡训练

yolo detect train data=/home/wanglu/ultralytics/ultralytics/datasets/dengjianji.yaml model=yolov8x.pt batch=32 epochs=480 imgsz=640 device='0,1,2,3'

多卡训练错误可能会抛出错误:barrier() got an unexpected keyword argument ‘device_ids’

更改/root/miniconda3/lib/python3.8/site-packages/ultralytics/yolo/utils/torch_utils.py

@contextmanager
def torch_distributed_zero_first(local_rank: int):
    """Decorator to make all processes in distributed training wait for each local_master to do something."""
    initialized = torch.distributed.is_available() and torch.distributed.is_initialized()
    if initialized and local_rank not in (-1, 0):
        # dist.barrier(device_ids=[local_rank])
        dist.barrier()
    yield
    if initialized and local_rank == 0:
        # dist.barrier(device_ids=[0])
        dist.barrier()

(3)使用预训练模型

pretrained=True即可

yolo task=detect mode=train model=yolov8s.yaml   data=/home/wanglu/ultralytics/ultralytics/datasets/dengjianji.yaml epochs=320 batch=32 pretrained=True

训练参数见下表:

名称默认值描述
batch16训练的批量大小
modelnull训练模型权重,可指定具体位置,如yolov8n.pt,yolov8n.yaml等
epochs100训​​练的轮次
imgsz640输入图像压缩后的尺寸
devicenull用于训练的设备,可选0或1或cpu等
workers8多线程数据加载,默认8
datanull数据路径,使用自定义的yaml文件或者官方yaml
lr0float初始学习率
lrffloat最终学习率(lr0 * lrf)
patience50早期训练时,准确率如果没有显著上升则停止的轮次
saveTrue是否需要保存训练的模型和预测结果
cacheFalse使用缓存进行数据加载,可选True/ram, disk 或者 False
projectnull项目名称
namenull实验的名称
exist_okFalse是否覆盖现有实验
pretrainedFalse是否使用预训练模型
optimizer‘SGD’优化器,可选[‘SGD’, ‘Adam’, ‘AdamW’, ‘RMSProp’]
verboseFalse是否打印详细输出
seed0重复性实验的随机种子
deterministicTrue是否启用确定性模式
single_clsFalse是否将多类数据训练为单类
image_weightsFalse是否使用加权图像选择进行训练
rectFalse是否支持矩形训练
cos_lrFalse是否使用余弦学习率调度器
close_mosaic10禁用最后 10 个 epoch 的马赛克增强
resumeFalse是否从上一个检查点恢复训练
lr00.01初始学习率(SGD=1E-2, Adam=1E-3)
lrf0.01余弦退火超参数 (lr0 * lrf)
momentum0.937学习率动量
weight_decay0.0005权重衰减系数
warmup_epochs3.0预热学习轮次
warmup_momentum0.8预热学习率动量
warmup_bias_lr0.1预热学习率
box7.5giou损失的系数
cls0.5分类损失的系数
dfl1.5dfl损失的系数
fl_gamma0.0焦点损失的gamma系数 (efficientDet默认gamma=1.5)
label_smoothing0.0标签平滑
nbs64名义批次,比如实际批次为16,那么64/16=4,每4 次迭代,才进行一次反向传播更新权重,可以节约显存
overlap_maskTrue训练期间掩码是否重叠(仅限分割训练)
mask_ratio4掩码下采样率 (仅限分割训练)
dropout0.0使用 dropout 正则化 (仅限分类训练)

3.2 验证

yolo task=detect mode=val model=runs/detect/train3/weights/best.pt data=ultralytics/ultralytics/datasets/dengjianji.yaml device=0
名称默认值描述
valTrue在训练期间验证/测试
save_jsonFalse将结果保存到 JSON 文件
save_hybridFalse保存标签的混合版本(标签+附加预测)
conf0.001用于检测的对象置信度阈值(预测时默认 0.25 ,验证时默认0.001)
iou0.6NMS 的交并比 (IoU) 阈值
max_det300每张图像的最大检测数
halfTrue使用半精度 (FP16)
dnnFalse使用 OpenCV DNN 进行 ONNX 推理
plotsFalse在训练期间显示图片

3.3 预测

source 为图像路径,或者使用摄像头source=0

yolo task=detect mode=predict model=runs/detect/train3/weights/best.pt source=data/images device=0
名称默认值描述
source‘ultralytics/assets’图片或视频的源目录
saveFalse是否保存结果
showFalse是否显示结果
save_txtFalse将结果保存为 .txt 文件
save_confFalse保存带有置信度分数的结果
save_cropFasle保存裁剪后的图像和结果
conf0.3置信度阈值
hide_labelsFalse隐藏标签
hide_confFalse隐藏置信度分数
vid_strideFalse视频帧率步幅
line_thickness3边界框厚度(像素)
visualizeFalse可视化模型特征
augmentFalse将图像增强应用于预测源
agnostic_nmsFalse类别不可知的 NMS
retina_masksFalse使用高分辨率分割蒙版
classesnull只显示某几类结果,如class=0, 或者 class=[0,2,3]

3.4 导出

新建export.py,终端运行
注意指定opset, 本人指定opset=11

from ultralytics import YOLO

model = YOLO('/home/wanglu/runs/detect/train3/weights/best.pt')
model.export(format='engine', dynamic=True, opset=11, device=0)

参数见下表:

KeyValueDescription
format'torchscript'format to export to
imgsz640image size as scalar or (h, w) list, i.e. (640, 480)
kerasFalseuse Keras for TF SavedModel export
optimizeFalseTorchScript: optimize for mobile
halfFalseFP16 quantization
int8FalseINT8 quantization
dynamicFalseONNX/TensorRT: dynamic axes
simplifyFalseONNX/TensorRT: simplify model
opsetNoneONNX: opset version (optional, defaults to latest)
workspace4TensorRT: workspace size (GB)
nmsFalseCoreML: add NMS

可用的YOLOv8导出格式如下表所示。您可以使用format参数导出为任何格式,即format='onnx’或format=‘engine’。

Formatformat ArgumentModelMetadataArguments
PyTorch-yolov8n.pt-
TorchScripttorchscriptyolov8n.torchscriptimgsz, optimize
ONNXonnxyolov8n.onnximgsz, half, dynamic, simplify, opset
OpenVINOopenvinoyolov8n_openvino_model/imgsz, half
TensorRTengineyolov8n.engineimgsz, half, dynamic, simplify, workspace
CoreMLcoremlyolov8n.mlmodelimgsz, half, int8, nms
TF SavedModelsaved_modelyolov8n_saved_model/imgsz, keras
TF GraphDefpbyolov8n.pbimgsz
TF Litetfliteyolov8n.tfliteimgsz, half, int8
TF Edge TPUedgetpuyolov8n_edgetpu.tfliteimgsz
TF.jstfjsyolov8n_web_model/imgsz
PaddlePaddlepaddleyolov8n_paddle_model/imgsz
  • 3
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
在【小白CV】手把手教你用YOLOv5训练自己的数据集(从Windows环境配置到模型部署)_梁瑛平的博客-CSDN博客.pdf中提供了详细的指导,可以帮助你学习如何使用YOLOv5训练自己的数据集。该过程包括以下步骤: 1. 数据集制作:准备自己的数据集,并进行标注和处理,生成YOLOv5所需的数据格式。 2. 环境配置:在Windows环境下安装Python环境、PyTorch和其他必要的依赖库。 3. 模型训练:使用YOLOv5提供的训练脚本进行模型训练,根据自己的硬件配置修改参数。 4. 模型测试:使用训练好的模型进行测试,评估模型在测试集上的性能。 5. 模型推理:将训练好的模型部署到实际应用中,进行目标检测。 训练好的模型会保存在yolov5目录下的runs/exp0/weights/last.pt和best.pt文件中,而详细训练数据保存在runs/exp0/results.txt文件中。 <span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [【小白CV】手把手教你用YOLOv5训练自己的数据集(从Windows环境配置到模型部署)_梁瑛平的博客-CSDN博客....](https://download.csdn.net/download/m0_62668782/54189217)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [YOLOv5训练自己的数据集(超详细完整版)](https://blog.csdn.net/demm868/article/details/122076560)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

w'xy

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值