vscode调试方法&&跑yolov5心得

本文介绍了如何在VSCode中结合终端使用train.py和detect.py进行模型训练和验证,强调了终端与VSCode环境的区别,以及如何处理参数输入和断点调试。同时,文中提到了在训练前进行label提取和数据集划分的重要性,以及选择合适模型(如小模型在多数据集上的优势)以避免过拟合。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  • vscode终端,训练运行train.py.检测验证模型运行detect.py.
  • 注意vscode运行环境是撒旦下面环境相当于终端的,上面相当于vscode自己的。
  • 终端直接输入命令运行:好处可以输入参数,但设断点不会中断。vscode点击上面直接调试,会中断,但是不能输入参数。方法:设置,在默认default地方写。断点也可以输入参数运行
  • yolov5s预训练模型轻于yolov5。选用小模型多数据 要好于 大模型大数据和大模型小数据。 大模型小数据收敛很快但是过拟合,结果往往差相比小模型。
  • 训练前要对label提取,划分训练集等预处理。
# coding:utf-8
 
import os
import random
import argparse
 """
 根据label的所有xml划分训练,测试,验证集合
 输入所有xml路径,输出三个txt(里面是图片名,每一行是一个图片)
 """
parser = argparse.ArgumentParser()
# xml文件的地址,根据自己的数据进行修改 xml一般存放在Annotations下
parser.add_argument('--xml_path', default='data/mydata/Annotations', type=str, help='input xml label path')
# 数据集的划分,地址选择自己数据下的ImageSets/Main
parser.add_argument('--txt_path', default='data/mydata/dataSet', type=str, help='output txt label path')
opt = parser.parse_args()

def split_data_indices(total_indices):
    random.shuffle(total_indices)
    total_samples = len(total_indices)
    train_ratio, test_ratio = 0.7, 0.2

    train_end = int(total_samples * train_ratio)
    test_end = int(total_samples * (train_ratio + test_ratio))

    train_indices = total_indices[:train_end]
    test_indices = total_indices[train_end:test_end]
    val_indices = total_indices[test_end:]

    return train_indices, test_indices, val_indices


xmlfilepath = opt.xml_path
txtsavepath = opt.txt_path
total_xml = os.listdir(xmlfilepath)
if not os.path.exists(txtsavepath):
    os.makedirs(txtsavepath)
 
num = len(total_xml)
list_index = list(range(num))
train_indices, test_indices, val_indices = split_data_indices(list_index)
 #'data/mydata/dataSet下创建划分数据集的图片名字
file_trainval = open(txtsavepath + '/trainval.txt', 'w')
file_train = open(txtsavepath + '/train.txt', 'w')
file_val = open(txtsavepath + '/val.txt', 'w')
 
for i in range(num):
    name = total_xml[i][:-4] + '\n'
    if i in train_indices:
        file_trainval.write(name)
    elif i in test_indices:
        file_train.write(name)
    else:
        file_val.write(name)

 
file_trainval.close()
file_train.close()
file_val.close()

# -*- coding: utf-8 -*-
import xml.etree.ElementTree as ET
import os
from os import getcwd
 """
 作用 1:把xml每一个图片对象转换成txt形式(每个txt表示一张图片,
 txt里面每行表示图片里的一个object。
 2:把之前训练,测试,验证集合三个txt里面图片名称改成全局路径
 """
sets = ['train', 'val', 'trainval']
classes = ["red", "green", "yellow", "off"]  # 改成自己的类别
abs_path = os.getcwd()
print(abs_path)

 
def convert(size, box):
    dw = 1. / (size[0])
    dh = 1. / (size[1])
    x = (box[0] + box[1]) / 2.0 - 1
    y = (box[2] + box[3]) / 2.0 - 1
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return x, y, w, h
 
def convert_annotation(image_id):
    if image_id == '': return
    in_file = open('data/mydata/Annotations/%s.xml' % (image_id), encoding='UTF-8')
    out_file = open('data/mydata/labels/%s.txt' % (image_id), 'w')
    tree = ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)
    for obj in root.iter('object'):
        # difficult = obj.find('difficult').text
        difficult = obj.find('difficult').text
        cls = obj.find('name').text
        if cls not in classes or int(difficult) == 1:
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
             float(xmlbox.find('ymax').text))
        b1, b2, b3, b4 = b
        # 标注越界修正
        if b2 > w:
            b2 = w
        if b4 > h:
            b4 = h
        b = (b1, b2, b3, b4)
        bb = convert((w, h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
 
wd = getcwd()
for image_set in sets:
    if not os.path.exists('data/mydata/labels/'):
        os.makedirs('data/mydata/labels/')
    image_ids = open('data/mydata/dataSet/%s.txt' % (image_set)).read().strip().split("\n")
    list_file = open('data/mydata/%s.txt' % (image_set), 'w')
    for image_id in image_ids:
        list_file.write(abs_path + '/data/mydata/JPEGImages/%s.jpg\n' % (image_id))
        convert_annotation(image_id)
    list_file.close()

list_file.write(abs_path + ‘/data/mydata/JPEGImages/%s.jpg\n’ % (image_id))注意jpg格式写死了,可能会有图片为png,但这里为jpg的bug。
全修改为jpg脚本:

# import os

# def rename_files_in_folder(folder_path):
#     for filename in os.listdir(folder_path):
#         if filename.endswith(".png"):
#             base = os.path.splitext(filename)[0]
#             os.rename(os.path.join(folder_path, filename), os.path.join(folder_path, base + ".jpg"))

# # 使用方法
# # replace 'your_folder_path' with the path of your folder
# rename_files_in_folder(r'E:\panda_ws-main\traffic_light\data\mydata\JPEGImages')

有时候txt里记录了1.jpg,但JPEGIMG里却缺少这张图片,报错。修改代码

# 复制图像到另一个文件夹
# 文件所在文件夹
import os
import shutil
with open(r"E:\panda_ws-main\traffic_light\data\mydata\dataSet\val.txt", 'r') as f:
    for line in f.readlines():
        line = line.strip('\n')
        print(line)
        if os.path.exists(line):
            shutil.copy(line, r'E:\panda_ws-main\traffic_light\data\images')

其余按照网上流程都可以运行。

### 配置和运行YOLO模型于VSCode #### 安装必要的依赖库 为了确保能够在 VSCode 中顺利使用 YOLO 模型,需要先安装所需的 Python 库。这通常涉及到下载特定版本的 release 文件并执行其中的 `.py` 脚本以完成环境搭建[^1]。 对于那些希望在不具备 GPU 加速功能的机器上部署 YOLO 的开发者来说,可以参照先前描述的方法设置适合 CPU 运行的开发环境[^2]。 ```bash pip install -r requirements.txt ``` 此命令会依据 `requirements.txt` 文件中的列表自动获取所有必需的包。 #### 设置数据集配置文件 当准备就绪后,下一步就是定义好要使用的数据源位置。通过修改或创建一个新的 YAML 格式的配置文档来指明这些细节,比如类别的标签以及图片所在的目录等信息[^3]。 假设有一个自定义的数据集位于本地磁盘上的某个路径 `/path/to/dataset/` 下面,并且已经准备好了一个名为 `custom_dataset.yaml` 的配置文件: ```yaml train: /path/to/dataset/images/train/ val: /path/to/dataset/images/val/ nc: 80 names: ['object_1', 'object_2', ... , 'object_80'] ``` 这里展示了如何指定训练集(`train`)验证集(`val`)的位置还有类别数量(`nc`)及其对应的名称(`names`)。 #### 编写Python脚本来调用YOLO API 最后一步是在工作区里编写一段简单的 Python 程序用来加载预训练好的权重并对新输入做预测分析。下面给出了一段示范性的代码片段展示怎样实现这一点: ```python from ultralytics import YOLO model = YOLO('yolov8n.pt') # Load a pretrained model (recommended for training) results = model('/path/to/image.jpg') # Predict on an image using the loaded model. print(results) ``` 这段程序首先导入了来自 Ultralytics 提供的支持函数,接着实例化了一个基于官方发布的轻量级网络结构——YOLOv8 nano 版本的对象检测器;之后利用它处理一张给定的照片得到识别结果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值