【保姆级教程】YOLOv8半自动化数据标注

一、YOLOV8环境准备

1.1 下载安装最新的YOLOv8代码

 仓库地址: https://github.com/ultralytics/ultralytics

1.2 配置环境

  pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

1.3 安装labelme标注工具

 pip install labelme

二、半自动标注

2.1 下载预训练权重yolov8n.pt

仓库:https://github.com/ultralytics/ultralytics
在YOLOv8 github上下载预训练权重:yolov8n.pt,ultralytics\ultralytics\路径下,新建weights文件夹,预训练权重放入其中。
在这里插入图片描述

2.2 下载预训练权重ViT-B SAM model

仓库:https://github.com/facebookresearch/segment-anything?tab=readme-ov-file
在SAM github上下载预训练权重:ViT-B SAM model将下载的权重重命名为sam_b.pt(包括文件后缀),放入ultralytics\ultralytics\weights文件夹,预训练权重放入其中。
在这里插入图片描述

2.3 自动标注

执行下面代码:(建议使用绝对路径)

from ultralytics.data.annotator import auto_annotate

auto_annotate(data='D:/study/cnn/yolo/ultralytics/ultralytics/assets', det_model='D:/study/cnn/yolo/ultralytics/weights/yolov8n.pt', sam_model='D:/study/cnn/yolo/ultralytics/weights/sam_b.pt')

查看ultralytics\assets_auto_annotate_labels路径下,生成的txt格式标签
在这里插入图片描述

三、标签文件可视化

3.1 txt标签转json标签

执行下面代码:(建议使用绝对路径)
在这里插入图片描述

import torch
import numpy as np
import base64, os
from PIL import Image
import io
import json

def xyn2xyxy(x):
    # Convert nx4 boxes from [x, y, w, h] to [x1, y1, x2, y2] where xy1=top-left, xy2=bottom-right
    x = [ar.reshape(-1, 2) for ar in x]

    return x

def txt2points(txtfile_path):
    cls, xywh_list = [], []
    with open(txtfile_path, "r") as f:
        for line in f.readlines():
            line = line.strip('\n').split(' ')  # 去掉列表中每一个元素的换行符
            cls.append(line[0])
            xywh_list.append(line[1:])

    return cls, xywh_list


def savejson(points_list, clses_list, img_tmp, filename, save_dir, w, h):
    cur_json_dict = {
        "version": "5.1.1",
        "flags": {},
        "shapes": [
        ],
    }

    listbigoption = []
    for cls, points in zip(clses_list, points_list):
        points = np.array(points, dtype=float).reshape(-1, 2)
        points[:, 0] = points[:, 0] * w
        points[:, 1] = points[:, 1] * h

        cur_json_dict['shapes'].append(
            {"label": cls, "points": points.tolist(), "group_id": None,
             "shape_type": "polygon", "flags": {}})

    # A['imageData'] = base64encode_img(img_tmp)

    cur_json_dict["imageData"] = None
    cur_json_dict["imageHeight"] = h
    cur_json_dict["imageWidth"] = w
    
    # 图像文件的相对路径
    cur_json_dict['imagePath'] = "..//assets//" + filename

    suffix = os.path.splitext(filename)[-1]
    with open(save_dir + "/" + filename.replace(suffix, ".json"), 'w', encoding='utf-8') as f:
        f.write(json.dumps(cur_json_dict, indent=4, separators=(',', ':')))
        # json.dump(A, f, indent=2, ensure_ascii=False)


def txt2json_main():
    img_dir = r'D:/study/cnn/yolo/ultralytics/ultralytics/assets'
    txt_dir = r'D:/study/cnn/yolo/ultralytics/ultralytics/assets_auto_annotate_labels'
    save_dir = r'D:/study/cnn/yolo/ultralytics/ultralytics/assets'
    

    for imgfile in os.listdir(img_dir):
        print(imgfile)
        name, suffix = os.path.splitext(imgfile)
        txtfile = imgfile.replace(suffix, '.txt')
        txt_path = os.path.join(txt_dir, txtfile)
        if not os.path.isfile(txt_path):
            continue
        img_path = os.path.join(img_dir, imgfile)
        img = Image.open(img_path)
        w, h = img.size
        cls, xyxy = txt2points(txt_path)
        # print(cls)
        # print(xyxy)
        # print()
        savejson(xyxy, cls, img, imgfile, save_dir, w, h)
if __name__ == '__main__':
    txt2json_main()

查看生成结果
在这里插入图片描述

3.2 使用labelme工具进行可视化

在这里插入图片描述

  • 13
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
要跑通YOLOv7保姆教程,可以按照以下步骤操作: 1. 首先,根据引用[1]中提到的文章,安装CPU环境下的OpenVINO,并参考该文章中的教程使用ONNX导出YOLOv7模型并调用接口进行摄像头推理预测。 2. 接下来,根据引用中的文章,详细学习如何配置YOLOv7代码。这个教程详细讲解了在本地电脑或者服务器上配置YOLOv7,并且使用自己的数据集进行训练、推理和检测等操作。 3. 参考引用中提到的文章,可以了解更多关于YOLOv7的实现和训练自己的数据集的详细教程。这些文章提供了有关YOLOv5和YOLOv7的目标检测和训练自己的数据集的具体步骤和方法。 通过按照这些教程的步骤进行操作,你应该能够跑通YOLOv7保姆教程,并且学习如何配置和训练自己的数据集。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [YOLOv7教程系列:一、基于自定义数据集训练专属于自己的目标检测模型(保姆教程,含数据集预处理),包含...](https://blog.csdn.net/weixin_45921929/article/details/126448031)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [YOLOv7保姆教程(个人踩坑无数)----训练自己的数据集](https://blog.csdn.net/weixin_55749226/article/details/128480595)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

m0_51579041

你的奖励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值