yolov5-pytorch-Ultralytics训练+预测+报错处理记录

一、前言

玩一段时间大模型,也该回归一下图像识别。本项目用于记录使用基于Ultralytics的yolov5进行目标检测测试。为什么用Ultralytics呢?答案有3
1、其良好的生态,方便我们部署到其它语言和设备上。因此本次测试结论:大坑没有,小坑不断~
2、对新手极度友好,只要装好依赖,按官方教程就可以运行起来。甚至export.py集成权重文件的各种转换功能比如:转ONNX文件!!
3.其对自定义数据集要求低,训练难度大减。当我们制作训练集时无需考虑吧图片压缩切割到成512x512或者640x640。只管找图标注,Ultralytics在train时会自动帮处理这些不合格尺寸的图片(爽爆了!!!)
在这里插入图片描述

二、简介

本篇使用的yolo5模型大小为yolov5l
由于需要识别一图片些细小的物体,我在Ultralytics的yolov5添加了一些注意力机制,但本次不会展开说,因为添加注意力前后对我们训练和预测的操作流程都没有任何影响。

三、训练

1.数据准备

也不知道是该夸还是该骂( ̄ェ ̄;)
Ultralytics提供了许多训练集数据格式,可以VOC、COCO、SKU等等。
但是label的数据格式不是xml而是txt…额…这就有些坑爹了▄█▀█●
以下我只选用其中一种格式:VOC实现
我采集数据文件夹取名MY_DataSet

(1)数据格式如下:

MY_DataSet
├── images
		└── train
		└── val
└── labels
		└── train
		└── val
└── dataset.yaml

(2)labels里数据的格式:

labels/train里的文件如下:
在这里插入图片描述
txt内容如下:
在这里插入图片描述
参考图图片如下:
在这里插入图片描述
即数据格式为:种类、x、y、w、h

通过以下方法可以使xml格式转成txt

def convert_annotation(voc_name,image_set,image_id):
    in_file = open('data/%s/Annotations/%s.xml' % (voc_name,image_id), encoding='utf-8')
    out_file = open('data/%s/labels/%s/%s.txt' % (voc_name,image_set,image_id), 'w', encoding='utf-8')
    tree = ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)
    for obj in root.iter('object'):
        difficult = obj.find('difficult').text
        # difficult = obj.find('Difficult').text
        cls = obj.find('name').text
        if cls not in classes or int(difficult) == 1:
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
             float(xmlbox.find('ymax').text))
        b1, b2, b3, b4 = b
        # 标注越界修正
        if b2 > w:
            b2 = w
        if b4 > h:
            b4 = h
        b = (b1, b2, b3, b4)
        bb = convert((w, h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')

(3)dataset.yaml内部如下:

train: 本文件夹相对于trian.py文件的位置/MY_DataSet/images/train
val: 本文件夹相对于trian.py文件的位置/MY_DataSet/images/val
nc: 4
names: ['华强','西瓜','刀子','背带裤']

(4)修改模型yaml文件

到Ultralytics项目下的models文件夹找到对应yolo5l.yaml文件打开它将

nc: 80 # number of classes

改成你识别类的总数即可,我这只有4类改成4即可。

nc: 4 # number of classes

2.训练

在安装好Ultralytics的yolo5l.yaml和配置好训练数据后运行代码

python train.py --img 512 --batch 16 --epoch 300 --data dataset.yaml的相对位置  --cfg models/yolov5l.yaml --weights yolov5l.pt的位置 

即可!!开始训练

四、预测

默认会保存在项目的runs/train/exp/weights/文件夹中

python detect.py --weights runs/train/exp/weights/best.pt --data 训练集dataset.yaml的相对路径 --source  图片路径

五、报错处理

  1. assert nf > 0 or not augment, f"{prefix}No labels found in {cache_path}, can not start training. {HELP_URL}"
    答:yolov5的数据集里标签格式为.txt,而我的自定义数据集是.xml格式,总而言之,我们要按官方的数据格式来,不能按以前传统的xml来弄。

2. 卡主或显示Download
这个我要着重标黑,因为很重要!!!很重要!!!很重要!!!

 Downloading https://ultralytics.com/assets/Arial.Unicode.ttf to/root/.config/Ultralytics/Arial.Unicode.ttf...

答:初次运行,yolo5会检测你在/root/.config/Ultralytics的目录下是否有Arial.ttf 文件在,如果没有该文件,它会自动下载给你安装给你安装。由于需要连接该比较耗时。建议直接去网上下载文件

https://ultralytics.com/assets/Arial.Unicode.ttf

如果下载失败也可用我下载的文件,然后放到对应目录下即可。

  1. 报错
UnicodeEncodeError: 'latin-1' codec can't encode characters in position 0-1: ordinal not in range(256)

当你把问题2解决了,还遇到这问题,那很可能就是你Pillow包有问题了,这个坑恶心了我一整天。
在这里插入图片描述

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple  Pillow==10.0.1
  1. NotImplementedError(“cannot instantiate %r on your system”
    NotImplementedError: cannot instantiate ‘PosixPath’ on your system

答:这个是在windows运行时会报的问题。在from pathlib import Path前插入如下代码即可

import pathlib
pathlib.PosixPath = pathlib.WindowsPath

在这里插入图片描述

注意:如果要弄到到Linux时,记得把这两行删了

  1. 运行爆cv2错误
AttributeError: module 'cv2.dnn' has no attribute 'DictValue'

cv2版本改一下即可

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple  opencv-python==4.8.0.74  opencv-contrib-python==4.8.0.74

题外话:
这个错误是非常有意思的,本地环境是windows ,conda安装的opencv-python==4.9.0.80能正常运行,但是在LInux上的原生python环境就不行,我之前尝试各种修复方法,结论就是别去瞎折腾修复,能换版本解决的就换版本,别给自己找花活(比如尝试用opencv-fixer修复该错误ヽ(ー_ー)ノ),笑死~~

在这里插入图片描述

六、结语

训练+预测至此结束咯~~
在这里插入图片描述

  • 20
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
YOLO系列是基于深度学习的端到端实时目标检测方法。 PyTorch版的YOLOv5轻量而性能高,更加灵活和易用,当前非常流行。 本课程将手把手地教大家使用labelImg标注和使用YOLOv5训练自己的数据集。课程实战分为两个项目:单目标检测(足球目标检测)和多目标检测(足球和梅西同时检测)。 本课程的YOLOv5使用ultralytics/yolov5,在Windows系统上做项目演示。包括:安装YOLOv5、标注自己的数据集、准备自己的数据集、修改配置文件、使用wandb训练可视化工具、训练自己的数据集、测试训练出的网络模型和性能统计。 希望学习Ubuntu上演示的同学,请前往 《YOLOv5(PyTorch)实战:训练自己的数据集(Ubuntu)》课程链接:https://edu.csdn.net/course/detail/30793  本人推出了有关YOLOv5目标检测的系列课程。请持续关注该系列的其它视频课程,包括:《YOLOv5(PyTorch)目标检测实战:训练自己的数据集》Ubuntu系统 https://edu.csdn.net/course/detail/30793Windows系统 https://edu.csdn.net/course/detail/30923《YOLOv5(PyTorch)目标检测:原理与源码解析》课程链接:https://edu.csdn.net/course/detail/31428《YOLOv5目标检测实战:Flask Web部署》课程链接:https://edu.csdn.net/course/detail/31087《YOLOv5(PyTorch)目标检测实战:TensorRT加速部署》课程链接:https://edu.csdn.net/course/detail/32303《YOLOv5目标检测实战:Jetson Nano部署》课程链接:https://edu.csdn.net/course/detail/32451《YOLOv5+DeepSORT多目标跟踪与计数精讲》课程链接:https://edu.csdn.net/course/detail/32669《YOLOv5实战口罩佩戴检测》课程链接:https://edu.csdn.net/course/detail/32744《YOLOv5实战中国交通标志识别》课程链接:https://edu.csdn.net/course/detail/35209《YOLOv5实战垃圾分类目标检测》课程链接:https://edu.csdn.net/course/detail/35284       
### 回答1: yolov5-pytorch模型部署可以通过以下步骤实现: 1. 安装必要的依赖库,如pytorch、numpy、opencv等。 2. 下载yolov5-pytorch模型,并将其加载到内存中。 3. 准备待检测的图像或视频数据。 4. 对待检测的数据进行预处理,如缩放、归一化等。 5. 将预处理后的数据输入到yolov5模型中进行检测。 6. 解析检测结果,并将其可视化或保存到文件中。 7. 可以将部署好的模型封装成API接口,供其他应用程序调用。 需要注意的是,模型部署的具体实现方式可能因应用场景而异,例如在嵌入式设备上部署时可能需要进行模型压缩和量化等操作。 ### 回答2: yolov5-pytorch是一种目标检测算法,能够在图像中检测到人、车、建筑等物体,因此在工业生产、医学影像、智能交通等领域得到了广泛的使用。在应用场景中,通常需要将yolov5-pytorch模型部署在服务器上,以便实现实时检测与处理的需求。 要部署yolov5-pytorch模型,需要以下步骤: 1. 准备工作 - 安装pytorch和opencv等依赖库; - 下载yolov5-pytorch源码; - 准备训练集并训练模型。 2. 模型测试 对于训练好的模型,需要进行测试以验证其性能。 - 使用测试集或者视频等数据进行测试; - 可以使用官方提供的test.py或者自定义脚本进行测试; - 统计模型的 AP、F1 score、precision等数据,并分析模型性能和精度。 3. 模型部署 - 可以使用flask等框架进行部署; - 按照官方提供的推理代码进行部署; - 必要时进行模型量化、裁剪等优化操作,以减小模型大小和加速推理速度; - 针对不同的应用场景,可以构建不同的数据预处理和后处理流程,提高模型的优化和性能。 总之,对于yolov5-pytorch模型部署来说,关键是理解原理和基本操作,并结合实际应用场景进行优化和测试。只有在实践中不断探索和改进,才能够实现高效、精确的目标检测应用。 ### 回答3: YOLOv5是最近比较火的目标检测模型,其结构简单,速度快,准确率高,因此得到了广泛的应用。在生产环境中,我们需要将YOLOv5模型部署到特定的硬件设备上,以便快速地对图像或视频流进行实时的目标检测和识别。本文将介绍如何将YOLOv5模型部署到Pytorch环境中。 1. 准备工作 在开始部署模型之前,我们需要做一些准备工作: - 安装Pytorch和torchvision - 下载YOLOv5源代码 - 下载预训练权重文件 2. 模型转换 我们需要将YOLOv5的模型转换成适合部署的格式。YOLOv5的模型结构采用Pytorch实现,我们需要将其转换为ONNX格式,以便部署到不同的硬件设备上。通过执行以下命令可以将模型转换为ONNX格式: python models/export.py --weights yolov5s.pt --img 640 --batch 1 3. 部署模型 将生成的ONNX模型导入到Pytorch环境中,并使用特定的库将其部署到硬件设备上。部署的目标设备可能有所不同,例如,我们可以将模型部署到树莓派、Jetson Nano等低功耗嵌入式设备,也可以将其部署到高端GPU服务器中,以实现更快速的目标检测。 在部署模型时,我们需要使用特定的库和API,例如TensorRT、OpenVino等。这些库可以提高模型在不同硬件设备上的性能和速度。 4. 测试模型 部署模型后,我们需要对其进行测试。我们可以使用现有的数据进行测试,也可以使用摄像头或者图像流实时进行目标检测。我们需要对检测结果进行验证,包括检测结果是否准确、检测速度是否满足要求等。 5. 优化模型 在部署模型时,我们也需要考虑优化模型以提高其性能和速度。优化模型的方法包括: - 模型剪枝和量化 - 使用特定的库和API - 模型硬件加速 总结 通过以上步骤,我们可以将YOLOv5模型部署到Pytorch环境中,并实现高效的目标检测。随着硬件设备的不断升级和优化,我们可以不断地探索如何优化模型以适应更多的应用场景,提高模型的性能和效率。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值