使用yolov10跑coco数据集

目录

    • 准备工作
    • 开始训练

准备工作

  • python环境配置
  1. 通过Anaconda创建一个python的虚拟环境
    这里有两种方法:
    a.使用anaconda图形化工具
    点击创建新的虚拟环境
    选择对应的版本号

    b.使用conda命令

conda create -n 虚拟环境名字  python=指定版本
  1. 在此环境中安装pytorch,下载好对应的CUDA
    若是使用GPU而非CPU,确保GPU是NVIDIA的产品而非AMD,AMD不能用于深度学习,此处演示的是使用GPU进行训练而非CPU
    a.打开cmd输入 nvidia-smi
    在这里插入图片描述
    此处可以看到cuda的版本12.5,随后打开pytorch官网,选择指定的下载命令,注意在你电脑上刚刚查到的cuda version>cuda runtime,即根据下图,由于我的cuda version是12.5,那么三个选项都可以安装(11.8,12.1,12.4),然后conda和pip都可以用,我这里选择的是conda,复制下方的命令
    在这里插入图片描述
    在指定的虚拟环境中运行
conda install pytorch torchvision torchaudio pytorch-cuda=12.1 -c pytorch -c nvidia

在这里插入图片描述
安装完成后,用pycharm新建一个项目(python解释器使用该虚拟环境中的)用于测试pytorch是否安装成功,若显示False则安装失败
在这里插入图片描述

  • yolo项目配置
  1. 找到并下载官网的yolov10项目
    代码地址
    将项目下载到本地后使用pycharm打开,选择刚刚配置好的虚拟环境(即选择对应的python解释器),打开终端
    在这里插入图片描述
  2. 安装yolov10中requirement.txt对应的包
    在这里插入图片描述
  1. 下载好数据集到项目中
    在yolov10项目中coco数据集转化后对应的数据集文件结构如下
    datasets||coco ---images----train2017|			  |___val2017|				|---labels-----train2017|			|___val2017||---train2017.txt|---val2017.txt
    images中即存放对应的训练集和验证集的图片
    labels中暂时为空,同时两个txt文件也没有,因为还没开始转化

  2. 将coco数据格式转化为yolo数据格式
    a.在项目中新建一个python文件用于存放格式转化的脚步,脚本如下:

#COCO 格式的数据集转化为 YOLO 格式的数据集
#--json_path 输入的json文件路径
#--save_path 保存的文件夹名字,默认为当前目录下的labels。

import os
import json
from tqdm import tqdm
import argparse

parser = argparse.ArgumentParser()
#这里根据自己的json文件位置,换成自己的就行
parser.add_argument('--json_path', default='F:/PY/Yolov10/dataset/annotations/instances_val2017.json',type=str, help="input: coco format(json)")
#这里设置.txt文件保存位置
parser.add_argument('--save_path', default='F:/PY/Yolov10/datasets/coco/labels/val2017', type=str, help="specify where to save the output dir of labels")
arg = parser.parse_args()

def convert(size, box):
    dw = 1. / (size[0])
    dh = 1. / (size[1])
    x = box[0] + box[2] / 2.0
    y = box[1] + box[3] / 2.0
    w = box[2]
    h = box[3]
#round函数确定(xmin, ymin, xmax, ymax)的小数位数
    x = round(x * dw, 6)
    w = round(w * dw, 6)
    y = round(y * dh, 6)
    h = round(h * dh, 6)
    return (x, y, w, h)

if __name__ == '__main__':
    json_file =   arg.json_path # COCO Object Instance 类型的标注
    ana_txt_save_path = arg.save_path  # 保存的路径

    data = json.load(open(json_file, 'r'))
    if not os.path.exists(ana_txt_save_path):
        os.makedirs(ana_txt_save_path)

    id_map = {} # coco数据集的id不连续!重新映射一下再输出!
    with open(os.path.join(ana_txt_save_path, 'classes.txt'), 'w') as f:
        # 写入classes.txt
        for i, category in enumerate(data['categories']):
            f.write(f"{category['name']}\n")
            id_map[category['id']] = i
    # print(id_map)
    #这里需要根据自己的需要,更改写入图像相对路径的文件位置。
    list_file = open(os.path.join(ana_txt_save_path, 'train2017.txt'), 'w')
    for img in tqdm(data['images']):
        filename = img["file_name"]
        img_width = img["width"]
        img_height = img["height"]
        img_id = img["id"]
        head, tail = os.path.splitext(filename)
        ana_txt_name = head + ".txt"  # 对应的txt名字,与jpg一致
        f_txt = open(os.path.join(ana_txt_save_path, ana_txt_name), 'w')
        for ann in data['annotations']:
            if ann['image_id'] == img_id:
                box = convert((img_width, img_height), ann["bbox"])
                f_txt.write("%s %s %s %s %s\n" % (id_map[ann["category_id"]], box[0], box[1], box[2], box[3]))
        f_txt.close()
        #将图片的相对路径写入train2017或val2017的路径
        list_file.write('F:/PY/Yolov10/dataset/yolo-coco/images/train2017/%s.jpg\n' %(head))
    print("convert successful!")
    list_file.close()

在脚本开始运行前修改json path(之前画箭头的那两个文件地址)和save path(刚刚新建的文件结构中的labels目录下),此脚本运行两次,因为有两个对应的json文件。
==在instances_train2017.json文件进行脚本转化的过程中,时间可能比较长,笔者当时转化了足足8h,原因可能是该脚本存在频繁的读写以及json较大的原因(448MB),而instances_val2017.json对应的json脚本耗时很小 ==
在你完成转化后你将得到labels下train2017和val2017两个文件,其中全是txt文件,注意把里面的train2017.txt和val2017.txt文件挪出来,目录结构上方已经展示。

开始训练

在训练之前建议修改一下coco.yaml
在这里插入图片描述
改为修改完格式后的数据集对应的绝对路径

完成上述准备工作后就可以着手准备训练了。我是按照GitHub上面所写来进行训练的

yolo detect train data=coco.yaml model=yolov10n/s/m/b/l/x.yaml epochs=500 batch=256 imgsz=640 device=0,1,2,3,4,5,6,7

其中device表示所使用的GPU的数量,这里填的0表示单块GPU进行训练,epochs表示训练的轮数,若是显存不够用可以尝试减小batch,imgsz为图片大小,yolov10后面跟的字母表示模型的大小,具体可以看GitHub。
我使用的命令如下(在终端上运行),目的只是跑完整个流程,所以参数选择小:

yolo detect train data=coco.yaml model=yolov10n.yaml epochs=5 batch=8 imgsz=640 device=0

运行过程如下
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
值得一提的是我为了减小训练时间,把images中train2017的图片删除了相当大的一部分,可能会得到如下警告,但是对于训练过程并不会有影响
在这里插入图片描述
模型推理

yolo predict model=jameslahm/yolov10{n/s/m/b/l/x}

在这里插入图片描述
模型导出

yolo predict model=yolov10n/s/m/b/l/x.onnx

在这里插入图片描述
至此,运行结束

  • 14
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值