简单使用YOLOv5自己训练模型

使用YOLOv5自己训练模型

前言:本文基于我的另一篇文章作为基础,文章戳这里,主要还是实操为主,让大家能快速上手使用。

数据集构建

1.准备工作

数据收集:
  • 图片类型数据

  • 视频类型数据(使用opencv进行视频抽帧,相当于转为一张一张图片的数据)

    image-20231124142915206

    具体操作:

    1、建立如下目录

    image-20231124144123190

    2、PyCharm打开该路径

    image-20231124144253590

    3、放入视频文件、新建代码文件并配置jupyter,配置jupyter操作上面有说,结果如下图。

    image-20231124145750925

    4、接下来我们逐步输入代码

    ​ ①导入必要的包

    image-20231124150003477

    ​ ②读取视频文件

    image-20231124150339363

    ​ ③显示读取的帧

    image-20231124150359706

    这里可以发现图片颜色不对,这是因为原始图片是RGB格式,而这里imshow显示的是BGR格式,所以需要进行如下转换。

    image-20231124160917901

    ​ ④完整代码执行

    由于视频的帧数太多,所以设置参数每30帧读取一张图片。

    最后完整的代码如下(根据自己的文件路径),执行完后可以看到左侧的数据集。

    image-20231124161008111

标注工具:
  • labelimg(安装命令:pip install labelimg)

    结果如下

    image-20231124162009773

    下载好后终端输入labelimg,自动弹出该标注工具,这里如果出现了以下错误,看这篇文章,错误解决方法,设置一个系统环境变量即可。

    image-20231124163119486

再次运行,成功

image-20231124163233404

LabelImg操作方法:

点击openDir出现的选择框表示选择存图片的那个文件夹,点击Change Save Dir出现的选择框是选择把图片标注结果的目的文件夹。我在这里新建了一个label文件夹用于存放标注结果,在这里有一个小问题,Python3.10安装的labelimg无法识别jpg格式的图片,就算换成png也有别的错误,测试过别的版本python就可以正常识别,所以如果你使用的是Python3.10重新换一个版本吧(我在这里换成了3.9)。

image-20231124163754049

调整保存格式,labelImg打开默认保存是PascalVOC格式,我们需要点击把它改成yolo格式,如下图。

image-20231124175602598

点击save保存,打开AutoSavemode可以自动保存。

image-20231124175812210

此时我们可以正式开始标注图片。

右键点击CreateBox,用鼠标选择区域,并为这块区域命名,标注好后点击左侧nextImage进入下一张图片。

image-20231124180108521

快捷键: a上一张、d下一张、w画框框

标注好后打开label文件夹,可以看到很多txt文件,任意打开一个,第一个表示类别0(在class文件中可以看到类别),后面四个分别表示你画的框的中心点在整体图片中的一个比例以及宽和高对于整体图片的比例。

image-20231124180953139

这里有四个类别。

image-20231124181157489

2.开始训练

分装图片

image-20231124181340933

将images中的图片分为train和val两个文件夹放置(训练集多验证集少),如下图

image-20231124181748774

同样把labels也按相同操作放置一一对应的图片到train和val文件夹中,classes不用放。

关键参数

image-20231124182528862

我们可以打开train.py文件查看参数位置,可以看到data参数默认是coco128.yaml文件

image-20231124182901213

让我们打开coco128.yaml看看,path指定了数据集的位置,train指定的是数据集中训练集所在的位置,val指定的是数据集中测试集所在的位置,test是可选项,下面classes就是类别的定义。

image-20231124183743272

很明显,我们只需要整理好数据集改写对应的yaml文件同时更新train的,那么我们就可以训练了。

修改参数

复制一份coco128.yaml,更名为classroom

image-20231124184139455

并对文件内容进行修改,修改后如下图。

image-20231124185226839

train.py中修改参数

image-20231124184907785

点击运行,等待一会便训练成功

image-20231124192006615

模型训练时遇到的问题

image-20231124191952647

修改虚拟内存的方法:

image-20231124192225559

开始检测

训练完成后我们打开exp3,可以看到以下文件。

image-20231124192514512

best.pt表示训练过程中最好的那个模型,last.pt表示训练过程中最后一轮的模型,labels存放整体数据比例、分布这些内容、results.csv存的就是各项指标的变化(可以用于自己画图做分析)events开头的文件保存了训练过程中各种参数的变化,可以使用tensorboard来查看,命令如下

tensorboard --logdir runs

执行结果:

image-20231124192934300

按住ctrl点击网址即可查看结果。

image-20231124193005065

正式检测:

输入命令,weights指定刚刚训练时最好的模型,source指定我们一开始使用的视频,–view-img参数表示可以实时用可视化界面展示训练过程。

python detect.py --weights runs/train/exp3/weights/best.pt --source datasets/classroom.mp4 --view-img

hell
tensorboard --logdir runs


执行结果:

[外链图片转存中...(img-jcqtmzr8-1700826447637)]

按住ctrl点击网址即可查看结果。

[外链图片转存中...(img-09iWVA6H-1700826447637)]

**正式检测:**

输入命令,weights指定刚刚训练时最好的模型,source指定我们一开始使用的视频,--view-img参数表示可以实时用可视化界面展示训练过程。

```shell
python detect.py --weights runs/train/exp3/weights/best.pt --source datasets/classroom.mp4 --view-img

由于原视频中有我的同学们,这里就不做展示了,最终结果是符合预期的,简单场景基本能满足需求,但是如果一直在动或者动效效果比较大的时候,最终结果会有出入,但整体来说置信度还是可以的。

  • 26
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值