VOC格式标签转YOLO格式标签

VOC格式标签转YOLO格式标签

'''
Author: hollis23
Date: 2021-10-22 16:39:24
LastEditTime: 2021-10-22 16:49:30
LastEditors: Please set LastEditors
Description: In User Settings Edit

'''
import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join
import random
import shutil

'''
   1. 先将xml标签文件放到Anootations文件夹下,images放到JPEGImages文件夹下
'''
work_sapce_dir = os.path.join(tt100k_parent_dir, "VOCdevkit/")
if not os.path.isdir(work_sapce_dir):
    os.mkdir(work_sapce_dir)
work_sapce_dir = os.path.join(work_sapce_dir, "VOC2007/")
if not os.path.isdir(work_sapce_dir):
    os.mkdir(work_sapce_dir)
jpeg_images_path = os.path.join(work_sapce_dir, 'JPEGImages')
annotations_path = os.path.join(work_sapce_dir, 'Annotations')
if not os.path.isdir(jpeg_images_path):
    os.mkdir(jpeg_images_path)
if not os.path.isdir(annotations_path):
        os.mkdir(annotations_path)


'''
    2.根据xml文件的名字,将数据划分为训练集,验证集和测试集,并将生成的trainval.txt
    val.txt, test.txt放到ImageSets/Main文件夹下(这几个txt文件中的内容都是图像/xml
    标签的去后缀名称,即id)
'''

root_dir = 'I:/data/VOCdevkit/VOC2007/'

## 0.7train 0.1val 0.2test
trainval_percent = 0.8
train_percent = 0.7
xmlfilepath = root_dir + 'Annotations'
txtsavepath = root_dir + 'ImageSets/Main'
total_xml = os.listdir(xmlfilepath)

num = len(total_xml)  # 100
list = range(num)
tv = int(num * trainval_percent)  # 80
tr = int(tv * train_percent)  # 80*0.7=56
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)

ftrainval = open(root_dir + 'ImageSets/Main/trainval.txt', 'w', encoding='utf-8')
ftest = open(root_dir + 'ImageSets/Main/test.txt', 'w', encoding='utf-8')
ftrain = open(root_dir + 'ImageSets/Main/train.txt', 'w', encoding='utf-8')
fval = open(root_dir + 'ImageSets/Main/val.txt', 'w', encoding='utf-8')

for i in list:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        ftrainval.write(name)
        if i in train:
            ftrain.write(name)
        else:
            fval.write(name)
    else:
        ftest.write(name)

ftrainval.close()
ftrain.close()
fval.close()
ftest.close()



'''
    3.在VOCDevkit目录格式下,将xml标签格式转化为yolo的.txt文件格式,需要修改类别列表
'''


# sets=[('2012', 'train'), ('2012', 'val'), ('2007', 'train'), ('2007', 'val'), ('2007', 'test')]
sets=[('2007', 'trainval'), ('2007', 'test')]


# classes = ["aeroplane", "bicycle", "bird", "boat", "bottle", "bus", "car", "cat", "chair", "cow", "diningtable", "dog", "horse", "motorbike", "person", "pottedplant", "sheep", "sofa", "train", "tvmonitor"]
# classes = ["hat"]
classes = ["i2", "i4", "i5", "il100", "il60", "il80", "io", "ip", "p10", "p11", "p12", "p19", "p23", "p26", "p27", "p3", "p5", "p6", "pg", "ph4", "ph4.5", "ph5", "pl100", "pl120", "pl20", "pl30", "pl40", 
    "pl5", "pl50", "pl60", "pl70", "pl80", "pm20", "pm30", "pm55", "pn", "pne", "po", "pr40", "w13", "w32", "w55", "w57", "w59", "wo"]

def convert(size, box):
    dw = 1./size[0]
    dh = 1./size[1]
    x = (box[0] + box[1])/2.0
    y = (box[2] + box[3])/2.0
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x*dw
    w = w*dw
    y = y*dh
    h = h*dh
    return (x,y,w,h)

def convert_annotation(year, image_id):
    in_file = open('/data/datasets/TT100K_45/VOCdevkit/VOC%s/Annotations/%s.xml'%(year, image_id))
    out_file = open('/data/datasets/TT100K_45/VOCdevkit/VOC%s/labels/%s.txt'%(year, image_id), 'w')
    tree=ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)

    for obj in root.iter('object'):
        difficult = obj.find('difficult').text
        cls = obj.find('name').text
        if cls not in classes or int(difficult) == 1:
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text))
        bb = convert((w,h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')

wd = '/data/datasets/TT100K_45/'

for year, image_set in sets:
    if not os.path.exists('/data/datasets/TT100K_45/VOCdevkit/VOC%s/labels/'%(year)):
        os.makedirs('/data/datasets/TT100K_45/VOCdevkit/VOC%s/labels/'%(year))
    image_ids = open('/data/datasets/TT100K_45/VOCdevkit/VOC%s/ImageSets/Main/%s.txt'%(year, image_set)).read().strip().split()
    list_file = open('%s_%s.txt'%(year, image_set), 'w')
    for image_id in image_ids:
        list_file.write('%s/VOCdevkit/VOC%s/JPEGImages/%s.jpg\n'%(wd, year, image_id))
        convert_annotation(year, image_id)
    list_file.close()


'''
    4. yolo格式标签划分训练集,验证机和测试集可以依据voc格式下的划分方法,即利用trainval.txt
    val.txt, test.txt中的id,将相应的图片和yolo的txt标签通过shutil.copyfile放到yolo格式的
    目录下
'''
# 训练集、验证集和测试集的比例分
root_image_path = '/data/datasets/TT100K_45/VOCdevkit/VOC2007/JPEGImages/'
root_label_path = '/data/datasets/TT100K_45/VOCdevkit/VOC2007/labels/'
# 标注文件的路径
image_path = '/data/datasets/TT100K_45/VOCdevkit/VOC2007/YOLO/'
label_path = '/data/datasets/TT100K_45/VOCdevkit/VOC2007/YOLO/'

images_files_list = os.listdir(root_image_path)
labels_files_list = os.listdir(root_label_path)
print('images files: {}'.format(images_files_list))
print('labels files: {}'.format(labels_files_list))
total_num = len(images_files_list)
print('total_num: {}'.format(total_num))

train_file = '/data/datasets/TT100K_45/VOCdevkit/VOC2007/ImageSets/Main/trainval.txt'
test_file = '/data/datasets/TT100K_45/VOCdevkit/VOC2007/ImageSets/Main/test.txt'

with open(train_file, 'r') as f:
    train_id = f.readlines()
    for id in train_id:
        id = id.strip()
        shutil.copyfile(root_image_path + id + '.jpg', image_path + 'train/images/' + id + '.jpg')
        shutil.copyfile(root_label_path + id + '.txt', label_path + 'train/labels/' + id + '.txt')
with open(test_file, 'r') as f1:
    test_id = f1.readlines()
    for id in test_id:
        id = id.strip()
        shutil.copyfile(root_image_path + id + '.jpg', image_path + 'test/images/' + id + '.jpg')
        shutil.copyfile(root_label_path + id + '.txt', label_path + 'test/labels/' + id + '.txt')




  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 将voc标签格式换为yolo格式的步骤如下: 1. 读取voc标签文件,获取每个标注框的坐标信息和类别信息。 2. 将坐标信息换为yolo格式的相对坐标,即中心点坐标和宽高的比例。 3. 将类别信息换为yolo格式的类别编号,从开始。 4. 将换后的标签信息保存到对应的yolo标签文件中。 划分训练集和测试集的步骤如下: 1. 将所有数据集按照一定比例分为训练集和测试集,通常是将数据集的70%作为训练集,30%作为测试集。 2. 将训练集和测试集的图像和标签文件分别存放在不同的文件夹中。 3. 在训练时,使用训练集进行模型训练,测试集用于测试模型的性能。 ### 回答2: 介绍 VOC标签格式YOLO标签格式目标检测任务中最常见的两种标签格式VOC标签格式是指PASCAL VOC数据集使用的标签格式,通常为XML格式。而YOLO标签格式是指Darknet团队开发的YOLO算法使用的标签格式,通常为txt格式。本文将介绍如何将VOC标签格式换为YOLO标签格式,并且如何划分训练集和测试集。 VOC标签格式YOLO标签格式 VOC标签格式包含每个图像中的所有目标的信息,并且每个目标都包含类别、边界框位置和部分属性(如难度)等信息。从VOC标签格式换为YOLO标签格式的关键是要将边界框位置信息归一化为0到1之间的值。YOLO标签格式只需要目标类别和边界框的中心坐标和宽度/高度比例即可。具体步骤如下: 1. 读取VOC标签格式文件,获取每张图像中的目标数量、类别、位置和部分属性等信息。 2. 对每个目标进行边界框位置信息的归一化,计算边界框中心坐标和宽度/高度比例。 3. 将每个目标的类别和边界框信息换为YOLO标签格式并保存为txt格式的文件。 划分训练集和测试集 划分训练集和测试集的目的是为了评估模型的性能。训练集用于训练模型,而测试集用于评估模型在新数据上的表现。一般来说,训练集和测试集应该互不重叠,并且测试集应该具有与训练集相似的数据分布。 划分训练集和测试集的方法很多,常见的有随机划分、按文件名划分和按目录划分等。其中,按目录划分是最常见的方法。一般来说,数据集应该先按类别分组,然后再按目录划分。例如,对于VOC数据集,可以将JPEGImages目录下的图像和Annotations目录下的标签文件分别放在同一个目录中,并按类别分组。然后,可以将每个类别的数据集划分为训练集和测试集,建议将测试集的比例设置为20-30%。 总结 将VOC标签格式换为YOLO标签格式并划分训练集和测试集是目标检测任务中非常重要的一步。这可以使得我们能够使用更多的数据来训练模型,并且能够准确评估模型在新数据上的表现。划分训练集和测试集的方法很多,需要根据数据集的特点进行选择。 ### 回答3: 首先,VOC标签格式YOLO标签格式有一些不同之处,需要进行换。VOC标签格式是一种XML文件格式,其中包含图片的基本信息、标注信息以及对象的类别、坐标等信息。而YOLO标签格式是一种txt文件格式,每一行都表示一张图片,包含该图片中物体的类别以及bounding box坐标信息等。 VOC格式标签YOLO格式标签可以使用Python编程语言来完成。具体操作步骤如下: 1、读取XML格式VOC标签文件,获取图片的基本信息和对象的类别、坐标信息等。 2、根据YOLO标签格式的要求,将图片基本信息和对象类别信息分别存储到txt文件的不同行中。 3、将VOC标签格式中的坐标信息换为YOLO标签格式的坐标信息。 4、将所有信息存储到txt文件中。 划分训练集和测试集也需要一定的步骤: 1、将所有图片按比例分配给训练集和测试集。 2、根据所选比例,将标签文件也分配到训练集和测试集的文件夹中。 3、在训练和测试之前,可以随机化数据集的顺序。 4、在使用YOLO进行训练和测试时,需要使用train.txt和val.txt来载入训练和测试集。 在实际的操作中,可以使用Python编写脚本来自动完成上述操作,节省时间和减少人工操作的误差。同时,开发者还可以根据需要进行自定义,如结合TensorFlow、Keras等框架进行模型训练和优化,以获得更准确的目标检测和分割结果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值