Python将Labelme文件的真实框和预测框绘制到图片上

文章讲述了如何在Python中读取Labelme标注文件,将其应用于图片上,区分真实框和预测框,涉及PyTorch和YOLOv5在目标检测中的应用。
摘要由CSDN通过智能技术生成

在这里插入图片描述

前言

前提条件

相关介绍

  • Python是一种跨平台的计算机程序设计语言。是一个高层次的结合了解释性、编译性、互动性和面向对象的脚本语言。最初被设计用于编写自动化脚本(shell),随着版本的不断更新和语言新功能的添加,越多被用于独立的、大型项目的开发。
  • PyTorch 是一个深度学习框架,封装好了很多网络和深度学习相关的工具方便我们调用,而不用我们一个个去单独写了。它分为 CPU 和 GPU 版本,其他框架还有 TensorFlow、Caffe 等。PyTorch 是由 Facebook 人工智能研究院(FAIR)基于 Torch 推出的,它是一个基于 Python 的可续计算包,提供两个高级功能:1、具有强大的 GPU 加速的张量计算(如 NumPy);2、构建深度神经网络时的自动微分机制。
  • YOLOv5是一种单阶段目标检测算法,该算法在YOLOv4的基础上添加了一些新的改进思路,使其速度与精度都得到了极大的性能提升。它是一个在COCO数据集上预训练的物体检测架构和模型系列,代表了Ultralytics对未来视觉AI方法的开源研究,其中包含了经过数千小时的研究和开发而形成的经验教训和最佳实践。
  • Labelme是一款图像标注工具,由麻省理工(MIT)的计算机科学和人工智能实验室(CSAIL)研发。它是用Python和PyQT编写的,开源且免费。Labelme支持Windows、Linux和Mac等操作系统。
  • 这款工具提供了直观的图形界面,允许用户在图像上标注多种类型的目标,例如矩形框、多边形、线条等,甚至包括更复杂的形状。标注结果以JSON格式保存,便于后续处理和分析。这些标注信息可以用于目标检测、图像分割、图像分类等任务。
  • 总的来说,Labelme是一款强大且易用的图像标注工具,可以满足不同的图像处理需求。
  • Labelme标注json文件是一种用于存储标注信息的文件格式,它包含了以下几个主要的字段:
    • version: Labelme的版本号,例如"4.5.6"。
    • flags: 一些全局的标志,例如是否是分割任务,是否有多边形,等等。
    • shapes: 一个列表,每个元素是一个字典,表示一个标注对象。每个字典包含了以下几个字段:
      • label: 标注对象的类别名称,例如"dog"。
      • points: 一个列表,每个元素是一个坐标对,表示标注对象的边界点,例如[[10, 20], [30, 40]]。
      • group_id: 标注对象的分组编号,用于表示属于同一组的对象,例如1。
      • shape_type: 标注对象的形状类型,例如"polygon",“rectangle”,“circle”,等等。
      • flags: 一些针对该标注对象的标志,例如是否是难例,是否被遮挡,等等。
    • lineColor: 标注对象的边界线颜色,例如[0, 255, 0, 128]。
    • fillColor: 标注对象的填充颜色,例如[255, 0, 0, 128]。
    • imagePath: 图像文件的相对路径,例如"img_001.jpg"。
    • imageData: 图像文件的二进制数据,经过base64编码后的字符串,例如"iVBORw0KGgoAAAANSUhEUgAA…"。
    • imageHeight: 图像的高度,例如600。
    • imageWidth: 图像的宽度,例如800。

以下是一个Labelme标注json文件的示例:

{
  "version": "4.5.6",
  "flags": {},
  "shapes": [
    {
      "label": "dog",
      "points": [
        [
          121.0,
          233.0
        ],
        [
          223.0,
          232.0
        ],
        [
          246.0,
          334.0
        ],
        [
          121.0,
          337.0
        ]
      ],
      "group_id": null,
      "shape_type": "polygon",
      "flags": {}
    }
  ],
  "lineColor": [
    0,
    255,
    0,
    128
  ],
  "fillColor": [
    255,
    0,
    0,
    128
  ],
  "imagePath": "img_001.jpg",
  "imageData": "iVBORw0KGgoAAAANSUhEUgAA...",
  "imageHeight": 600,
  "imageWidth": 800
}

实验环境

  • Python 3.x (面向对象的高级语言)

Python将Labelme文件的标注信息绘制到图片上

  • 项目结构
    在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

代码实现

import os
import cv2
import json
import copy

def query_info_in_json_and_rectangle(in_img_path,real_json_path,pred_json_path,out_img_path):
    '''
    查询json文件的信息并绘制
    '''
    img = cv2.imread(in_img_path)

    # 绘制真实框
    with open(real_json_path,'r') as f:
        json_data = json.load(f)
    # print(json_data)

    # 以查询label信息为例,比如输出'label' == "49"的标注信息
    json_data_shape =  copy.deepcopy(json_data['shapes'])
    if json_data_shape != []:
        for i in json_data_shape:
            x1 = int(i['points'][0][0])
            y1 = int(i['points'][0][1])
            x2 = int(i['points'][1][0])
            y2 = int(i['points'][1][1])

            xmin = min(x1,x2)
            ymin = min(y1,y2)
            xmax = max(x1,x2)
            ymax = max(y1,y2)

            label_name = i['label']

            cv2.rectangle(img,(xmin,ymin),(xmax,ymax),(0, 0, 255), 2, cv2.LINE_AA)
            cv2.putText(img,label_name,(xmin-5,ymin), cv2.FONT_HERSHEY_SIMPLEX, 1,(0,0,255),2)

    # 绘制预测框
    with open(pred_json_path,'r') as f:
        json_data = json.load(f)
    # print(json_data)

    # 以查询label信息为例,比如输出'label' == "49"的标注信息
    json_data_shape =  copy.deepcopy(json_data['shapes'])
    if json_data_shape != []:
        for i in json_data_shape:
            x1 = int(i['points'][0][0])
            y1 = int(i['points'][0][1])
            x2 = int(i['points'][1][0])
            y2 = int(i['points'][1][1])

            xmin = min(x1,x2)
            ymin = min(y1,y2)
            xmax = max(x1,x2)
            ymax = max(y1,y2)

            label_name = i['label']

            cv2.rectangle(img,(xmin,ymin),(xmax,ymax),(255, 0, 0), 1, cv2.LINE_AA)
            cv2.putText(img,label_name,(xmin-5,ymin), cv2.FONT_HERSHEY_SIMPLEX, 1,(255,0,0),1)
    
        cv2.imwrite(out_img_path,img)
    else: # 无标注信息保存原图
        cv2.imwrite(out_img_path,img)
        


if __name__=="__main__":
    in_img_dir = 'images/'
    real_json_dir = 'jsons/'
    pred_json_dir = 'results/'


    output_dir = 'output_imgs/'
    if not os.path.exists(output_dir):
        os.mkdir(output_dir) 

    img_name_list = [i for i in os.listdir(in_img_dir) if i.endswith('.png') or i.endswith('.jpg') or i.endswith('.tif') or i.endswith('.jpeg') or i.endswith('.bmp')]
    # print(img_name_list)

    for img_name in img_name_list:
        in_img_path = in_img_dir + img_name
        if img_name.endswith('.jpeg'):
            real_json_path = real_json_dir + img_name[:-5]+'.json'
            pred_json_path = pred_json_dir + img_name[:-5]+'.json'
        else:
            real_json_path = real_json_dir + img_name[:-4]+'.json'
            pred_json_path = pred_json_dir + img_name[:-4]+'.json'

        
        out_img_path = output_dir + img_name
        # 将Labelme文件的标注信息绘制到图片上
        query_info_in_json_and_rectangle(in_img_path,real_json_path,pred_json_path,out_img_path)

输出结果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 注:真实框(红色),预测框(蓝色)
  • 22
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
要使用LSTM进行时间序列预测的多输入单输出模型,你可以按照以下步骤进行操作: 1. 准备数据:将时间序列数据划分为输入特征和输出标签。你可以使用滑动窗口的方法,将过去的时间步作为输入,下一个时间步作为输出。 2. 数据预处理:对输入特征和输出标签进行归一化处理,以提高模型的性能。你可以使用MinMaxScaler或StandardScaler等方法。 3. 构建LSTM模型:使用Keras或TensorFlow等库构建LSTM模型。你可以定义一个包含多个LSTM层的模型,并在最后添加一个全连接层作为输出。 4. 编译和训练模型:编译模型并使用训练数据进行训练。你可以选择适当的损失函数和优化器,并设置适当的训练参数,如批量大小和训练轮数。 5. 模型评估:使用测试数据集评估模型的性能。你可以计算预测结果与实际标签之间的误差,如均方误差(MSE)或均方根误差(RMSE)。 6. 进行预测:使用训练好的模型对未来的数据进行预测。你可以提供新的输入数据,然后使用模型的predict方法获得预测结果。 7. 对预测结果进行逆变换:对预测结果进行逆归一化处理,以获得与原始数据相对应的预测值。 下面是一个示例代码片段,展示了如何使用LSTM进行时间序列预测的多输入单输出模型: ```python from keras.models import Sequential from keras.layers import LSTM, Dense from sklearn.preprocessing import MinMaxScaler # 准备数据 # ... # 数据预处理 scaler = MinMaxScaler() scaled_data = scaler.fit_transform(data) # 构建LSTM模型 model = Sequential() model.add(LSTM(units=64, input_shape=(n_steps, n_features))) model.add(Dense(units=1)) # 编译和训练模型 model.compile(optimizer='adam', loss='mse') model.fit(X_train, y_train, epochs=10, batch_size=32) # 模型评估 mse = model.evaluate(X_test, y_test) # 进行预测 predictions = model.predict(X_future) # 对预测结果进行逆变换 scaled_predictions = scaler.inverse_transform(predictions) # 打印预测结果 print(scaled_predictions) # 相关问题:
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

FriendshipT

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值