一、模型训练
1、数据集下载
VisDrone2019是常用的无人机视觉目标检测的数据集。
2、字体下载
建议提前下载目标检测需要的标签字体。
下载地址:https://ultralytics.com/assets/Arial.ttf
保存地址通常为配置文件常用的地址:/home/tom/.config/Ultralytics/Arial.ttf
3、复制源代码
用如下命令来复制项目的源码:
git clone https://github.com/ultralytics/yolov5 # clone
cd yolov5
pip install -r requirements.txt # install
4、生成标签
VisDrone数据集中包含解释图像中目标对象的annotations文件。但是,在进行模型的训练、测试和推理时,需要将annotations文件转换成适合目标检测的labels文件,即标签文件。文件的格式是txt文件,规格为:
(1)每个对象排成一行;
(2)每一行是 class x_center y_center width height 格式;
(3)图像坐标必须处理成归一化 xywh 格式(从 0 到 1);
(4)类的标签以 0 为索引(从 0 开始)。
图像和它对应的标签文件分别如下图所示:


上述图像对应的标签文件包含 2 个人(类别 0)和领带(类别 27):
生成标签文件的源代码在数据集配置文件(data/VisDrone.yaml)中。
5、创建自己的模型
进入到yolov5/models/ 目录下,拷贝一个模型作为自己的模型,以yolov5s为例:
cp yolov5s.yaml yolov5s_visdrone.yaml
然后修改类别的数量,这里共有10个分类,把nc的参数改为10:

6、训练
输入如下命令开始训练:
python train.py --data VisDrone.yaml --epochs 100 --weights '' --cfg yolov5s_visdrone.yaml --batch-size 16
经过2个多小时的训练,训练结果如下:

此处的数据并未经过切割、融合等处理,经过上述处理后,精度应该更高。
二、模型推理
用detect.py文件来对图像进行推理:
python detect.py --weights #pt file after training --source #path to the image
原图和推理生成的图像如下所示:

本文详细介绍了如何使用VisDrone2019数据集训练yolov5目标检测模型,包括数据集下载、标签转换、模型创建、训练过程以及模型推理的步骤。通过教程,读者可以了解如何定制和优化无人机视觉检测项目。
288

被折叠的 条评论
为什么被折叠?



