完整目标检测项目流程——从使用LabelImg标注到使用YOLOv5训练测试

完整目标检测项目流程——从使用LabelImg标注到使用YOLOv5训练测试

大家好呀,虽然前面已经有两篇,分别使用Faster RCNN和YOLOv3进行目标检测的项目了,但是!相信大家应该也和我一样觉得远远不够吧!而且前面两篇都是使用的预训练好的模型,直接跳过了训练过程,甚至最后也没有准备测试数据,而是直接使用的摄像头,这个目标检测项目的体验感位面太差了些!
高举横幅《差评!差评!》诶嘿!既然如此,今天我们整一个完整的项目流程,我们会使用LabelImg工具进行图片标注,然后将其变成YOLO的标准数据格式,放入YOLO模型进行训练和测试,一步一步,手把手,相信大家一定会收获更大的满足感。
不过这样会不会很复杂呢?绝对不会!我向你保证,今天的代码量真的超级超级少!
在这里插入图片描述

说到这里,我突然有一个不知道该说成浪漫还是土味的想法。因为预训练模型的话,其实也就只能检测出顶多80个类别,这真的是远远不够!实在是难以囊括我们看到的这个缤纷多彩的世界!所以我有一个想法,假如说你想要展示自己的代码,小帅一把,秀给自己的女朋友看,可以先偷偷拿一些女朋友的照片,将其标注为“angel”或者是“Princess”总之之类的词语,那么当在进行目标检测的时候,其他人都是“person”,只有她是独一无二的!哦!我的天哪!我真的觉得好浪漫啊!虽然不清楚可不可行,哈哈。
在这里插入图片描述哈哈,话不多说,让我们开始今天的项目吧!

数据集获取

我这里做的是一个口罩识别任务,用的是武汉大学开源的一个真实场景下人戴口罩的数据集
是开源的,大家可以去GitHub上面下载,非常方便!实在是太感谢愿意开源分享的学者了,真的太棒了!

数据集GitHub链接:https://github.com/X-zhangyang/Real-World-Masked-Face-Dataset

因为这个数据集很大,其实我并不打算标这么多图片,因为咱们也只是想小小的体验一把,并不是真的要做些什么,所以我标注了240张图片,效果还是不错的,下图是一张效果图,我觉得大家如果不太要求精度的话,大概200张应该足够了。(其实我觉得七八十张应该效果也可以,嘿嘿)
在这里插入图片描述

在这里插入图片描述

LabelImg 安装及使用

真的是有了数据集,就会安心很多,感觉很踏实。
首先我们来安装LabelImg,我是使用anaconda去安装的,这个好像都可以,pip还是conda安装都可以,我们首先来创造一个环境,然后激活我们的conda环境

conda create -n python38 python=3.8
activate python38

接下来开始安装

pip install labelimg

OK,安装成功之后,我们就可以cd到安装的目录下,这里我安装的目录是

cd C:\Users\s\anaconda3\envs\python38\Lib\site-packages\labelImg-master

这个目录下有一个labelImg.py文件,我们接下来运行这个文件

python labelImg.py

如果没问题的话,应该就可以运行啦!就可以看到界面啦!
在这里插入图片描述
但是,情况往往不是那么顺利,有的时候会报错 No module named 'libs.resources 这个时候应该怎么办呢?
不要慌,很简单,我们首先运行如下代码:

pyrcc5 -o resources.py resources.qrc

这个时候会在当前目录,就是在labelImg-master下面生成一个resources.py文件,我们将这个文件拷贝到
libs目录下面,再次运行“python labelImg.py”就没问题啦!
接下来,我们开始快乐标注,,首先选择“打开目录”,选择我们存放图片的文件夹。
在这里插入图片描述接下来选择“创建区块”,我们框住目标,在下面的标签框中打上标签,可以看到下面有一些选项,什么“dog”,“person”,我们可以使用,也可以自定义标签,在这里,我就定义了一个标签“mask”。标注好之后,选择保存。
SOS!我突然发现其实可以保存成YOLO需要的TXT格式的,我个糊涂蛋,我之前一直以为只能是“PascalVOC”原来点击它还可以更换类别!
救命!啊!不管啦!反正我都已经标完了,接下来还是假装没事人一样来分享一下如何将 VOC转成YOLO需要的TXT格式,哈哈,感觉可能我是最后一个知道LabelImg可以直接生成TXT的,大家如果已经是TXT了就可以跳过下面这里。

VOC转成YOLO需要的TXT格式

直接上代码吧!
这部分代码非常简单,就是从长宽高,变成左上和右下坐标。
让我们来导入一些包

import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join

接下来,定义转换函数

def convert(size, box):
 
    x_center = (box[0] + box[1]) / 2.0
    y_center = (box[2] + box[3]) / 2.0
    x = x_center / size[0]
    y = y_center / size[1]
 
    w = (box[1] - box[0]) / size[0]
    h = (box[3] - box[2]) / size[1]
    
    return (x, y, w, h)
def convert_annotation(xml_files_path, save_txt_files_path, classes):
    xml_files = os.listdir(xml_files_path)
    print(xml_files)
    for xml_name in xml_files:
        print(xml_name)
        xml_file = os.path.join(xml_files_path, xml_name)
        out_txt_path = os.path.join(save_txt_files_path, xml_name.split('.')[0] + '.txt')
        out_txt_f = open(out_txt_path, 'w')
        tree = ET.parse(xml_file)
        root = tree.getroot()
        size = root.find('size')
        w = int(size.find('width').text)
        h = int(size.find('height').text)
 
        for obj in root.iter('object'):
            difficult = obj.find('difficult').text
            cls = obj.find('name').text
            if cls not in classes or int(difficult) == 1:
                continue
            cls_id = classes.index(cls)
            xmlbox = obj.find('bndbox')
            b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
                 float(xmlbox.find('ymax').text))
            # b=(xmin, xmax, ymin, ymax)
            print(w, h, b)
            bb = convert((w, h), b)
            out_txt_f.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')

好嘞!接下来就可以开始转化啦!
大家使用代码的时候,需要更改下面的三个部分,首先需要将classes改为你标注的类别,xml_files改为存放voc格式的xml标签文件路径,save_txt_files改为转化为yolo格式的txt标签文件存储路径,接下来就没什么问题啦!开始运行,我们就不用管啦!等会去目标文件夹下查看结果就好啦!

# 把voc的xml标签文件转化为yolo的txt标签文件
# 1、类别
classes = ['mask']
# 2、voc格式的xml标签文件路径
xml_files = r'xml'
# 3、转化为yolo格式的txt标签文件存储路径
save_txt_files = r'masklabel'
convert_annotation(xml_files, save_txt_files, classes)

使用YOLOv5进行训练

终于到训练YOLOv5的时候啦!
因为我不太想在本地训练代码(怕累着我的电脑),所以我就在colab上进行训练啦,YOLO真的被封装的超级好,我们用起来,简直不要太方便。
首先讲一下我们数据集的格式,经过整理后,我们的数据集应该是这种形式:
在这里插入图片描述
因为我这里比较懒,在实际训练的时候,我就只用了Train数据集,没有搞val和test,嘿嘿

在这里插入图片描述
如上图所示,这就是我们需要用到的所有代码了,是不是超级简单哇!

from google.colab import drive
drive.mount('/content/drive')
!pip install pyqt5
!git clone https://github.com/ultralytics/yolov5
!pip install -U -r yolov5/requirements.txt
import torch
from IPython.display import Image
!unzip '/content/drive/MyDrive/MaskTrain.zip'
%cd /content/yolov5
!python train.py --img 500 --batch 16 --epochs 300  --data /content/data.yaml --cfg ./models/yolov5s.yaml --weights ''

注意,这里在/content/目录下面有一个data.yaml,这个需要我们自己写哦,用来定义训练数据集路径和本次目标检测类别,这里我是这么写的,大家可以做一个参考

train: ../content/MaskTrain 
val: ../content/MaskTrain 
test:  ../content/MaskTrain 
names:
  0: mask

接下来就可以开始快乐训练啦!

在这里插入图片描述
最后,让我们来一起看一下结果吧!
哇哦!还不错耶!
YOLO!yyds!

在这里插入图片描述

在这里插入图片描述
恭喜大家!圆满结束!!!

在这里插入图片描述

  • 6
    点赞
  • 37
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 12
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

猫头丁

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值