YOLOv8 目标检测及图片裁剪

前言

之前我们已经训练了识别是否佩戴口罩的模型文件,可以有效识别人群是否口罩,本文将会讲解如何将识别到的目标裁剪出来

目标识别

需要指定 save_txt=True,保存数据标注文件 txt

yolo predict model=runs/detect/train26/weights/best.pt source=ultralytics/assets/mask save_txt=True

查看标注文件目录及文件格式

image-20230908210243526

坐标转换

数据标注文件中格式(除类别之外都是归一化之后的值)

w:图片像素宽度

h:图片像素高度

0 0.301826 0.367765 0.123616 0.229143
label x_center y_center _width _height
x1=(x_center-width/2) * w
x2=(x_center+width/2) * w
y1=(y_center-height/2) * h
y2=(y_center+height/2) * h

剪裁脚本

import os
from PIL import Image
import shutil

def findSingleFile(path):
        # 创建 cutpictures 文件夹(先判断)
    cutp = os.path.join(path, "cutpictures") 
        # 判断文件夹是否存在
    if os.path.exists(cutp):
        # 如果文件夹存在,先删除再创建
        # 递归删除文件夹
        shutil.rmtree(cutp)
        os.makedirs(cutp)
    else:
        # 如果文件夹不存在,直接创建
        os.makedirs(cutp)

    for filename in os.listdir(path):
        if not os.path.isdir(os.path.join(path,filename)):
            # 无后缀文件名
            filename_nosuffix = filename.split(".")[0]
            # 文件后缀
            file_suffix = filename.split(".")[1]
            # print(filename_nosuffix)

            img_path = os.path.join(path,filename)
            label_path = os.path.join(path,'labels',filename_nosuffix+".txt")

            # print(img_path)
            # print(label_path)
            # 生成裁剪图片(遍历 txt 每一行)eg: mask_0_1.jpg
            # 0 裁剪的图片序号 1 类别序号
            img = Image.open(img_path)
            w, h = img.size
            with open(label_path, 'r+', encoding='utf-8') as f:
                # 读取txt文件中的第一行,数据类型str
                lines = f.readlines()
                # 根据空格切割字符串,最后得到的是一个list
                for index, line in enumerate(lines):
                    msg = line.split(" ")
                    category = int(msg[0])
                    x_center = float(msg[1])
                    y_center = float(msg[2])
                    width = float(msg[3])
                    height = float(msg[4])
                    x1 = int((x_center - width / 2) * w)  # x_center - width/2
                    y1 = int((y_center - height / 2) * h)  # y_center - height/2
                    x2 = int((x_center + width / 2) * w)  # x_center + width/2
                    y2 = int((y_center + height / 2) * h)  # y_center + height/2
                    # print(x1, ",", y1, ",", x2, ",", y2, "," ,category)
                    # 保存图片
                    img_roi = img.crop((x1, y1, x2, y2))
                    save_path = os.path.join(cutp, "{}_{}_{}.{}".format(filename_nosuffix, index, category, file_suffix))
                    img_roi.save(save_path)

    print("裁剪图片存放目录:", cutp)


def main():
    import argparse

    # 创建 ArgumentParser 对象
    parser = argparse.ArgumentParser(description='输入目标检测裁剪目录')

    # 添加参数
    parser.add_argument('--dir', help='目录名', required=True)

    # 解析命令行参数
    args = parser.parse_args()

    dir = args.dir
    # print('目录参数:', dir)

    findSingleFile(dir)
    return

if __name__ == '__main__':
    main()

执行脚本(需要指定 --dir 目录位置参数)

python cutpictures.py --dir /home/hualiujie/baoxinshagnchuan/ultralytics-main-cgh/runs/detect/predict6

生成成功,文件名含义: {无后缀文件名}_{裁剪图片序号}_{标签类别序号}

image-20230909091600477

参考文章

利用yolov5进行目标检测,并将检测到的目标裁剪出来_目标检测_小脑斧ai吃肉-华为云开发者联盟 (csdn.net)

本文由博客一文多发平台 OpenWrite 发布!

  • 5
    点赞
  • 73
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 10
    评论
基于YOLOv8的各种瓶子识别检测系统源码(部署教程+训练好的模型+各项评估指标曲线).zip 平均准确率:0.95 类别:bottle 【资源介绍】 1、ultralytics-main ultralytics-main为YOLOv8源代码,里面涵盖基于yolov8分类、目标检测额、姿态估计、图像分割四部分代码,我们使用的是detect部分,也就是目标检测代码 2、搭建环境 安装anaconda 和 pycharm windows系统、mac系统、Linux系统都适配 在anaconda中新建一个新的envs虚拟空间(可以参考博客来),命令窗口执行:conda create -n YOLOv8 python==3.8 创建完YOLOv8-GUI虚拟空间后,命令窗口执行:source activate YOLOv8 激活虚拟空间 然后就在YOLOv8虚拟空间内安装requirements.txt中的所有安装包,命令窗口执行:pip install -r requirements.txt 使用清华源安装更快 3、训练模型过程 进入到\ultralytics-main\ultralytics\yolo\v8\detect\文件夹下,datasets即为我们需要准备好的数据集,训练其他模型同理。 data文件夹下的bicycle.yaml文件为数据集配置文件,该文件为本人训练自行车检测模型时创建,训练其他模型,可自行创建。博文有介绍https://blog.csdn.net/DeepLearning_?spm=1011.2415.3001.5343 train.py中238行,修改为data = cfg.data or './bicycle.yaml' # or yolo.ClassificationDataset("mnist") 237行修改自己使用的预训练模型 若自己有显卡,修改239行,如我有四张显卡,即改成args = dict(model=model, data=data, device=”0,1,2,3“) 以上配置完成后运行train.py开始训练模型,训练完毕后会在runs/detect/文件夹下生成train*文件夹,里面包含模型和评估指标等 4、推理测试 训练好模型,打开predict.py,修改87行,model = cfg.model or 'yolov8n.pt',把yolov8n.pt换成我们刚才训练完生成的模型路径(在\ultralytics-main\ultralytics\yolo\v8\detect\runs\detect文件夹下),待测试的图片或者视频存放于ultralytics\ultralytics\assets文件夹, 运行predict.py即可,检测结果会在runs/detect/train文件夹下生成。
YOLO(You Only Look Once)是一种常用的目标检测算法,其格式化的数据集常称为YOLO格式数据集。可用于训练的YOLO格式数据集包括一组图像和对应的标签文件。 YOLO格式数据集的图像通常是在计算机视觉领域收集的真实场景图像,包含各种常见物体或特定目标。这些图像要求具有高分辨率和多样性,以便训练出的模型具备良好的泛化能力。对于图像的预处理,可以进行尺寸调整、亮度调整、裁剪等操作,以满足训练的需求。 而标签文件则是对每个图像中的物体或目标进行框选和分类的结果。每个目标通常由一个边界框和一个类别标签来表示。边界框一般用矩形框选物体,并通过坐标表示框的位置和大小。类别标签则指定了该物体所属的类别,例如人、汽车、狗等。标签文件可以采用常见的格式,如txt、xml等,具体的格式要与训练算法的要求相匹配。 在使用YOLO格式数据集进行训练时,首先需要将图像和标签文件加载到训练环境中,并配合使用相应的训练算法进行模型的训练。模型的训练过程中,图像和标签会被输入模型中,通过反向传播算法进行权重的更新,从而逐步提高模型的准确性和鲁棒性。通过逐渐增加数据集的规模和多样性,可以进一步提升模型的性能。 综上所述,可用于训练的YOLO格式数据集是一组经过预处理的真实场景图像及其相应的标签文件,在训练过程中用于调整模型权重和学习目标检测任务。只有具备高分辨率、多样性和正确标注的数据集,才能充分发挥YOLO算法的优势,并得到准确且鲁棒的目标检测模型。
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

白木Channel

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值