【目标检测】2024最新-用YOLOv8训练自己的数据集(保姆级教学)

【2024.4】Windows11系统

        1.为打开网页流畅,建议准备梯子,打开Github等网站时会明显加快

        2.准备Anaconda,可参考其他博主文章下载

一、代码下载

官网下载YOLOv8(建议开梯子)

二、环境配置

1.在Anaconda中利用conda命令创建环境yolov8,并激活环境

-- 创建环境
conda create -n yolov8 python=3.9

-- 激活环境
conda activate yolov8

2.pip的源换到国内aliyun镜像,会提高下载速度

pip config set install.trusted-host mirrors.aliyun.com

3.安装一下yolov8在python>=3.8版本必要安装包,配置文件已经内置其中:

pip install ultralytics

4.下载预训练权重模型:

(1)推荐yolov8s.pt或者yolov8n.pt,模型小,下载快(用梯子)

(2)下载完成后,将模型放在ultralytics-main文件夹下

5.检验环境:

(1)在环境中打开项目ultralytics-main:

       ① 在Anaconda Prompt中cd到ultralytics-main目录下

       ② 在Pycharm终端直接打开

(2)运行以下指令:

yolo predict model=yolov8n.pt source='ultralytics/assets/bus.jpg'

(3)若运行成功会在D:\ultralytics-main下生成\runs\detect\predict,且文件中会包含一张照片

三、训练模型

【CPU】

1.准备工作:

(1)在ultralytics-main目录下新建data文件夹;

(2)再在data目录下新建四个文件夹:Annotations文件夹,images文件夹,ImageSets文件夹,labels文件夹

2.准备数据集:

(1)将准备好的图片以.jpg的格式放入images文件夹中

(2)利用labelimg进行标注后将生成的.xml文件保存至Annotations文件夹中

3.数据集的划分:

(1)在ultralytics-main目录下创建一个split_train_val.py文件;

(2)运行文件之后会在imageSets文件夹下将数据集划分为训练集train.txt、验证集val.txt、测试集test.txt,里面存放的就是用于训练、验证、测试的图片名称,代码内容如下:

import os
import random
 
 
trainval_percent = 0.9
train_percent = 0.9
xmlfilepath = 'data/Annotations'
txtsavepath = 'data/ImageSets'
total_xml = os.listdir(xmlfilepath)
 
num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)
 
ftrainval = open('data/ImageSets/trainval.txt', 'w')
ftest = open('data/ImageSets/test.txt', 'w')
ftrain = open('data/ImageSets/train.txt', 'w')
fval = open('data/ImageSets/val.txt', 'w')
 
for i in list:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        ftrainval.write(name)
        if i in train:
            ftrain.write(name)
        else:
            fval.write(name)
    else:
        ftest.write(name)
 
ftrainval.close()
ftrain.close()
fval.close()
ftest.close()
4.转化数据集格式:

(1)在ultralytics-main目录下创建一个voc_label.py文件

(2)运行后会生成转换后labels文件夹下图片的txt文件,还会在data文件夹下得到三个包含数据集路径的txt文件,train.txt,test.txt,val.txt这3个txt文件为划分后图像所在位置的绝对路径

(3)代码内容如下:

import xml.etree.ElementTree as ET
import os
from os import getcwd

sets = ['train', 'val', 'test']
classes = ['填写自己的类别']
abs_path = os.getcwd()
print(abs_path)


def convert(size, box):
    dw = 1. / (size[0])
    dh = 1. / (size[1])
    x = (box[0] + box[1]) / 2.0 - 1
    y = (box[2] + box[3]) / 2.0 - 1
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return x, y, w, h


def convert_annotation(image_id):
    in_file = open('data/Annotations/%s.xml' % (image_id), encoding='UTF-8')
    out_file = open('data/labels/%s.txt' % (image_id), 'w')
    tree = ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)
    for obj in root.iter('object'):
        # difficult = obj.find('difficult').text
        difficult = obj.find('difficult').text
        cls = obj.find('name').text
        if cls not in classes or int(difficult) == 1:
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
             float(xmlbox.find('ymax').text))
        b1, b2, b3, b4 = b
        # 标注越界修正
        if b2 > w:
            b2 = w
        if b4 > h:
            b4 = h
        b = (b1, b2, b3, b4)
        bb = convert((w, h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')


wd = getcwd()
for image_set in sets:
    if not os.path.exists('data/labels/'):
        os.makedirs('data/labels/')
    image_ids = open('data/ImageSets/%s.txt' % (image_set)).read().strip().split()
    list_file = open('data/%s.txt' % (image_set), 'w')
    for image_id in image_ids:
        list_file.write(abs_path + '/data/images/%s.jpg\n' % (image_id))
        convert_annotation(image_id)
    list_file.close()
5.编写数据集配置文件:

在ultralytics-main目录下创建 wheat.yaml,代码内容如下:

train: D:/ultralytics-main/data/train.txt
val: D:/ultralytics-main/data/val.txt
test: D:/ultralytics-main/data/test.txt

nc: 5 # 填写类别数

names: ["填写自己的类别"]  # 要和voc_label.py中的类别数目顺序一模一样

# train,val,test的路径根据自己情况而定
6.下载CPU版pytorch:

(1)具体网站(用梯子):Previous PyTorch Versions | PyTorch 选择找到与cpu相关的pip指令,例如:

(2)在conda创建的yolov8环境中输入找到的pip指令,等待下载完成即可

7.命令行运行:

(1)同样先在环境中打开项目ultralytics-main(参考二、5.(1))

(2)运行训练指令:

yolo train data=wheat.yaml model=yolov8s.pt epochs=300 imgsz=640 batch=8 workers=0 device=cpu

data为yaml配置文件,后边填写你的配置文件的相对/绝对路径
model为下载的预训练模型,在主文件下
epochs为训练轮数
imagez为训练时ai看到的图片大小,检查大图片建议使用640,小图片可以320 越大越吃性能
batch为一轮训练中每一次放入图片数量,越大越快效果越好,但是对性能要求越高
device为使用的设备,使用cpu练就写cpu,使用显卡大多数都是0,多显卡就0,1,2...多少显卡往后写多少 

【GPU】

1.检查自己电脑的CUDA版本:

(1)点击键盘 win + i ,输入cmd,敲击回车

(2)输入以下指令: 

nvidia-smi

(3)显示出以下内容说明系统已安装CUDA:

​         eg:若未显示此界面,则去CUDA官网下载与系统兼容版本 

2.下载pytorch:

(1)只能下载 <= CUDA Version的pytorch版本,这里我们选择找到pip相关指令

(2)具体网站:(用梯子)Previous PyTorch Versions | PyTorch

(3) 在conda创建的yolov8环境中输入找到的pip指令,等待下载完成即可

3.下载torch的gpu版本:

(1)在环境中打开项目ultralytics-main(参考二、5.(1))

(2)输入指令查看torch是否为gpu版本:

pip list

如下图, torch那行对应的torch版本,例如这样就是cpu版本,需要去下载相关torch的gpu版本

(3)打开网址:http://download.pytorch.org/whl/torch_stable.htmlicon-default.png?t=N7T8http://download.pytorch.org/whl/torch_stable.html

        

        cu121/表示你在教程【GPU】1.当中官网上下载的cuda版本

        torch-2.2.2%2Bcu121/表示刚才在pip list中查看的torch的版本

        cp312-cp312表示你yolov8的环境python版本,如果按我的教程来的话为3.9

        win-amd64.whl简而言之就是windows系统

① 按照上述要求找到你需要的下载链接点进去

② 在D盘新建一个文件夹D:\torch_gpu,保存在其中

③ 在项目环境中输入指令:(后面的路径为你whl所保存的位置)

pip install D:\torch_gpu\torch-2.2.2+cu121-cp39-cp39-win_amd64.whl

(4)检验是否安装成功:

 ① 在环境中打开项目ultralytics-main(参考二、5.(1))

② 输入指令:

pip list

 

--------------------------------出现+cu+你的cuda版本型号即为安装成功---------------------------------------- 

4. 运行训练命令:

(1)参考【CPU】1--5 

(2) 同样先在环境中打开项目ultralytics-main(参考二、5.(1))

(3)运行以下指令:

yolo train data=wheat.yaml model=yolov8s.pt epochs=300 imgsz=640 batch=8 workers=0 device=0

data为yaml配置文件,后边填写你的配置文件的相对/绝对路径
model为下载的预训练模型,在主文件下
epochs为训练轮数
imagez为训练时ai看到的图片大小,检查大图片建议使用640,小图片可以320 越大越吃性能
batch为一轮训练中每一次放入图片数量,越大越快效果越好,但是对性能要求越高
device为使用的设备,使用cpu练就写cpu,gpu使用显卡大多数都是0,多显卡就0,1,2,3,...多少显卡往后写多少

 四、过程细节

1.最终 ultralytics-main 目录下整体情况如下:

eg :红色框内部分为自己添加的部分,runs文件夹的生成参考二、6.(3)

2. 使用labelimg标注数据集转.xml格式

(1)安装并打开labelimg

① 在conda创建新环境labelimg,指令如下:

conda create -n labelimg  python=3.9

 ② 激活lalelimg环境,指令如下:

conda activate labelimg

③ 在此环境下安装labelimg,指令可如下:

pip install labelimg -i https://pypi.tuna.tsinghua.edu.cn/simple  #不推荐,会出现依赖缺失或者版本不匹配问题 
 
pip install labelimg  #推荐用此方法安装

        eg:以一种方式安装即可

④ 打开labelimg,指令如下:

labelimg
(2)使用labelimg

① 打开labelimg:

② 使用介绍:

③ 与三、3.数据集划分相关步骤:

Ⅰ选择PascalVOC(即.xml格式)

Ⅱ 点击Open Dir打开文件夹D:\ultralytics-main\data\images中的.jpg格式的图片

Ⅲ Change Save Dir选择文件夹D:\ultralytics-main\data\Annotations

Ⅳ 打好标签以后若先前勾选View-Auto Save mode选项即可自动保存

3.Pycharm项目解释器的选择 

我使用的是Pycham2024.1版本,截止2024.4最新版本,解释器选择的conda环境,如下

如何加载conda环境 ?

找到Anaconda目录下的\Library\bin\conda.bat,然后加载环境选择yolov8即可,如下

  • 72
    点赞
  • 441
    收藏
    觉得还不错? 一键收藏
  • 21
    评论
要使用YOLOv8和Labelme训练自己的数据集,您需要进行以下步骤: 1. 创建数据集文件:根据引用所提供的格式,在seg.yaml文件中指定您的训练、验证和测试图像的路径。确保路径是正确的,并且图像数量正确。同时在seg.yaml文件中指定类别名称和对应的编号。 2. 安装Labelme:根据引用中的指示,使用Anaconda创建一个名为labelme的环境,并激活该环境。然后,根据您使用的Python版本,安装相应的依赖库。 3. 标注数据集:使用Labelme标注工具标注您的数据集。根据"1.2Labelme 使用教程"可以学习如何使用Labelme进行标注。 4. 准备标注结果:标注完成后,您将得到一些.json格式的标注文件。确保这些文件与相应的图像文件在同一目录下。 5. 训练模型:使用YOLOv8的train模式,指定模型文件为yolov8s-seg.yaml,数据文件为seg.yaml。设置适当的训练参数,如epochs(训练轮数)、patience(停止训练的等待轮数)、batch(每个批次的图像数量)等。 综上所述,您可以通过按照上述步骤使用YOLOv8和Labelme来训练自己的数据集。请确保按照步骤正确操作,并根据具体情况进行相应调整。<span class="em">1</span><span class="em">2</span> #### 引用[.reference_title] - *1* *2* [YOLOv8实例分割训练自己的数据集保姆教程](https://blog.csdn.net/m0_51530640/article/details/129975257)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论 21
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值