VOC数据集及其制作

VOC挑战赛(ThePASCALVisualObjectClasses)是一个世界级的计算机视觉挑战赛,PASCAL全称:Pattern Analysis,Statical Modeling and Computational Learning,是一个由欧盟资助的网络组织。PASCALVOc挑战赛主要包括以下几类:图像分类(Object Classification);目标检测(Object Detection),目标分割(Object Segmentation),动作识别(ActionClassification)等。

VOC数据集的结构信息如下:

一、Labelme制作VOC数据集

(一)安装Labelme

(二)开始数据集制作

点击OpenDir打开要制作数据集图片的文件夹。点击CreatePolygons标记图片就可以了,最后每张图片标记好之后,别忘记点击save保存。此时的会保存问json格式的文件,如图所示:

接下来就要转换这些json格式为轮廓图片。
将图片和json文件放在同一个文件夹,命名为data_annotated

在data_annotated文件的目录下启动cmd,命令conda activate labelme切换至labelme环境下。

编辑labelme2voc.py文件

#!/usr/bin/env python

from __future__ import print_function

import argparse
import glob
import os
import os.path as osp
import sys

import imgviz
import numpy as np

import labelme


def main():
    parser = argparse.ArgumentParser(
        formatter_class=argparse.ArgumentDefaultsHelpFormatter
    )
    parser.add_argument("input_dir", help="input annotated directory")
    parser.add_argument("output_dir", help="output dataset directory")
    parser.add_argument("--labels", help="labels file", required=True)
    parser.add_argument(
        "--noviz", help="no visualization", action="store_true"
    )
    args = parser.parse_args()

    if osp.exists(args.output_dir):
        print("Output directory already exists:", args.output_dir)
        sys.exit(1)
    os.makedirs(args.output_dir)
    os.makedirs(osp.join(args.output_dir, "JPEGImages"))
    os.makedirs(osp.join(args.output_dir, "SegmentationClass"))
    os.makedirs(osp.join(args.output_dir, "SegmentationClassPNG"))
    if not args.noviz:
        os.makedirs(
            osp.join(args.output_dir, "SegmentationClassVisualization")
        )
    os.makedirs(osp.join(args.output_dir, "SegmentationObject"))
    os.makedirs(osp.join(args.output_dir, "SegmentationObjectPNG"))
    if not args.noviz:
        os.makedirs(
            osp.join(args.output_dir, "SegmentationObjectVisualization")
        )
    print("Creating dataset:", args.output_dir)

    class_names = []
    class_name_to_id = {}
    for i, line in enumerate(open(args.labels).readlines()):
        class_id = i - 1  # starts with -1
        class_name = line.strip()
        class_name_to_id[class_name] = class_id
        if class_id == -1:
            assert class_name == "__ignore__"
            continue
        elif class_id == 0:
            assert class_name == "_background_"
        class_names.append(class_name)
    class_names = tuple(class_names)
    print("class_names:", class_names)
    out_class_names_file = osp.join(args.output_dir, "class_names.txt")
    with open(out_class_names_file, "w") as f:
        f.writelines("\n".join(class_names))
    print("Saved class_names:", out_class_names_file)

    for filename in glob.glob(osp.join(args.input_dir, "*.json")):
        print("Generating dataset from:", filename)

        label_file = labelme.LabelFile(filename=filename)

        base = osp.splitext(osp.basename(filename))[0]
        out_img_file = osp.join(args.output_dir, "JPEGImages", base + ".jpg")
        out_cls_file = osp.join(
            args.output_dir, "SegmentationClass", base + ".npy"
        )
        out_clsp_file = osp.join(
            args.output_dir, "SegmentationClassPNG", base + ".png"
        )
        if not args.noviz:
            out_clsv_file = osp.join(
                args.output_dir,
                "SegmentationClassVisualization",
                base + ".jpg",
            )
        out_ins_file = osp.join(
            args.output_dir, "SegmentationObject", base + ".npy"
        )
        out_insp_file = osp.join(
            args.output_dir, "SegmentationObjectPNG", base + ".png"
        )
        if not args.noviz:
            out_insv_file = osp.join(
                args.output_dir,
                "SegmentationObjectVisualization",
                base + ".jpg",
            )

        img = labelme.utils.img_data_to_arr(label_file.imageData)
        imgviz.io.imsave(out_img_file, img)

        cls, ins = labelme.utils.shapes_to_label(
            img_shape=img.shape,
            shapes=label_file.shapes,
            label_name_to_value=class_name_to_id,
        )
        ins[cls == -1] = 0  # ignore it.

        # class label
        labelme.utils.lblsave(out_clsp_file, cls)
        np.save(out_cls_file, cls)
        if not args.noviz:
            clsv = imgviz.label2rgb(
                cls,
                imgviz.rgb2gray(img),
                label_names=class_names,
                font_size=15,
                loc="rb",
            )
            imgviz.io.imsave(out_clsv_file, clsv)

        # instance label
        labelme.utils.lblsave(out_insp_file, ins)
        np.save(out_ins_file, ins)
        if not args.noviz:
            instance_ids = np.unique(ins)
            instance_names = [str(i) for i in range(max(instance_ids) + 1)]
            insv = imgviz.label2rgb(
                ins,
                imgviz.rgb2gray(img),
                label_names=instance_names,
                font_size=15,
                loc="rb",
            )
            imgviz.io.imsave(out_insv_file, insv)


if __name__ == "__main__":
    main()

编辑labels.txt文件
内容是数据集的各个类别

运行指令

python labelme2voc.py data_annotated data_dataset_voc --labels labels.txt

即生成如下文件夹

二、Labelimg制作VOC数据集

(一)LabelImg的安装

(二)开始数据集制作

(三)LabelImg标注数据集

标注好的数据集如下,为xml格式:

利用VOC制作自己的数据集

新建文件夹,并在新建的文件夹下新建AnnotationsImageSetsJPEImages三个文件夹,在ImageSets下新建Main文件夹。

将自己的数据集图片拷贝到JPEGImages目录下。
即:

将数据集label文件拷贝到Annotations目录下。

在主文件夹下新建test.py文件夹,输入以下代码进去运行,将生成四个文件:train.txt,val.txt,test.txt和trainval.txt。

import os
import random

trainval_percent = 0.8  #val即Validation(验证),即训练集和验证机占全体数据的比例
train_percent = 0.9  #训练集占训练集和验证集总体的比例
xmlfilepath = 'D:\\A_data\\fruits\VOC\\Annotations' #这里是我的绝对路径
txtsavepath = 'D:\\A_data\\fruits\\VOC\\ImageSets\Main' #我的绝对路径 如果使用需要修改
total_xml = os.listdir(xmlfilepath)


num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)  # 训练集和验证集总个数
tr = int(tv * train_percent)  # 训练集总个数
trainval = random.sample(list, tv)  
train = random.sample(trainval, tr)


#需要生成以下四个文件,分别是test.txt,train.txt,trainval.txt,val.txt
#分别代表测试集、训练集、训练-验证集、验证集
ftrainval = open('D:\\A_data\\fruits\\VOC\\ImageSets\\Main\\trainval.txt', 'w')
ftest = open('D:\\A_data\\fruits\\VOC\\ImageSets\\Main\\test.txt', 'w')
ftrain = open('D:\\A_data\\fruits\\VOC\\ImageSets\\Main\\train.txt', 'w')
fval = open('D:\\A_data\\fruits\\VOC\\ImageSets\\Main\\val.txt', 'w')

for i in list:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        ftrainval.write(name)
        if i in train:
            ftest.write(name)
        else:
            fval.write(name)
    else:
        ftrain.write(name)

ftrainval.close()
ftrain.close()
fval.close()
ftest.close()

三、Makesense.ai制作VOC数据集

(一)在线工具Makesense

网站网址:https://www.makesense.ai/

(二)打开网址

点击Get Start

(三)插入图片

(1)点击Click here to select them,选择图片

(2)Ctrl+A全部选中 点击打开

(3)检查图片的数量是否正确,点击Object Detection

(四)建立标签

(1)点击 + ,输入自己需要的标签名字(一般是英文,也可以用拼音来代替)

(2)然后点击Start project(开始工程)

(五)开始标注

(1)用矩形工具把自己需要的目标圈出来

(2)下拉选择标签,选择自己对应的标签,只需要选择前两次,后面的它都会默认选择那个了

(六) 导出

(1)标记完所有的图片之后,点击Actions,选择Export Annotations

(2)导出的格式分贝有YOLO 和VOC,分别对应的压缩包文件是txt文件和xml文件

(3)压缩包里有对应的每张图片标记的矩形框的信息

(4)txt文件的信息大致如下

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

熟悉的黑曼巴

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值