VOC挑战赛(ThePASCALVisualObjectClasses)是一个世界级的计算机视觉挑战赛,PASCAL全称:Pattern Analysis,Statical Modeling and Computational Learning,是一个由欧盟资助的网络组织。PASCALVOc挑战赛主要包括以下几类:图像分类(Object Classification);目标检测(Object Detection),目标分割(Object Segmentation),动作识别(ActionClassification)等。
VOC数据集的结构信息如下:
一、Labelme制作VOC数据集
(一)安装Labelme
(二)开始数据集制作
点击OpenDir打开要制作数据集图片的文件夹。点击CreatePolygons标记图片就可以了,最后每张图片标记好之后,别忘记点击save保存。此时的会保存问json格式的文件,如图所示:
接下来就要转换这些json格式为轮廓图片。
将图片和json文件放在同一个文件夹,命名为data_annotated
在data_annotated文件的目录下启动cmd,命令conda activate labelme切换至labelme环境下。
编辑labelme2voc.py文件
#!/usr/bin/env python
from __future__ import print_function
import argparse
import glob
import os
import os.path as osp
import sys
import imgviz
import numpy as np
import labelme
def main():
parser = argparse.ArgumentParser(
formatter_class=argparse.ArgumentDefaultsHelpFormatter
)
parser.add_argument("input_dir", help="input annotated directory")
parser.add_argument("output_dir", help="output dataset directory")
parser.add_argument("--labels", help="labels file", required=True)
parser.add_argument(
"--noviz", help="no visualization", action="store_true"
)
args = parser.parse_args()
if osp.exists(args.output_dir):
print("Output directory already exists:", args.output_dir)
sys.exit(1)
os.makedirs(args.output_dir)
os.makedirs(osp.join(args.output_dir, "JPEGImages"))
os.makedirs(osp.join(args.output_dir, "SegmentationClass"))
os.makedirs(osp.join(args.output_dir, "SegmentationClassPNG"))
if not args.noviz:
os.makedirs(
osp.join(args.output_dir, "SegmentationClassVisualization")
)
os.makedirs(osp.join(args.output_dir, "SegmentationObject"))
os.makedirs(osp.join(args.output_dir, "SegmentationObjectPNG"))
if not args.noviz:
os.makedirs(
osp.join(args.output_dir, "SegmentationObjectVisualization")
)
print("Creating dataset:", args.output_dir)
class_names = []
class_name_to_id = {}
for i, line in enumerate(open(args.labels).readlines()):
class_id = i - 1 # starts with -1
class_name = line.strip()
class_name_to_id[class_name] = class_id
if class_id == -1:
assert class_name == "__ignore__"
continue
elif class_id == 0:
assert class_name == "_background_"
class_names.append(class_name)
class_names = tuple(class_names)
print("class_names:", class_names)
out_class_names_file = osp.join(args.output_dir, "class_names.txt")
with open(out_class_names_file, "w") as f:
f.writelines("\n".join(class_names))
print("Saved class_names:", out_class_names_file)
for filename in glob.glob(osp.join(args.input_dir, "*.json")):
print("Generating dataset from:", filename)
label_file = labelme.LabelFile(filename=filename)
base = osp.splitext(osp.basename(filename))[0]
out_img_file = osp.join(args.output_dir, "JPEGImages", base + ".jpg")
out_cls_file = osp.join(
args.output_dir, "SegmentationClass", base + ".npy"
)
out_clsp_file = osp.join(
args.output_dir, "SegmentationClassPNG", base + ".png"
)
if not args.noviz:
out_clsv_file = osp.join(
args.output_dir,
"SegmentationClassVisualization",
base + ".jpg",
)
out_ins_file = osp.join(
args.output_dir, "SegmentationObject", base + ".npy"
)
out_insp_file = osp.join(
args.output_dir, "SegmentationObjectPNG", base + ".png"
)
if not args.noviz:
out_insv_file = osp.join(
args.output_dir,
"SegmentationObjectVisualization",
base + ".jpg",
)
img = labelme.utils.img_data_to_arr(label_file.imageData)
imgviz.io.imsave(out_img_file, img)
cls, ins = labelme.utils.shapes_to_label(
img_shape=img.shape,
shapes=label_file.shapes,
label_name_to_value=class_name_to_id,
)
ins[cls == -1] = 0 # ignore it.
# class label
labelme.utils.lblsave(out_clsp_file, cls)
np.save(out_cls_file, cls)
if not args.noviz:
clsv = imgviz.label2rgb(
cls,
imgviz.rgb2gray(img),
label_names=class_names,
font_size=15,
loc="rb",
)
imgviz.io.imsave(out_clsv_file, clsv)
# instance label
labelme.utils.lblsave(out_insp_file, ins)
np.save(out_ins_file, ins)
if not args.noviz:
instance_ids = np.unique(ins)
instance_names = [str(i) for i in range(max(instance_ids) + 1)]
insv = imgviz.label2rgb(
ins,
imgviz.rgb2gray(img),
label_names=instance_names,
font_size=15,
loc="rb",
)
imgviz.io.imsave(out_insv_file, insv)
if __name__ == "__main__":
main()
编辑labels.txt文件
内容是数据集的各个类别
运行指令
python labelme2voc.py data_annotated data_dataset_voc --labels labels.txt
即生成如下文件夹
二、Labelimg制作VOC数据集
(一)LabelImg的安装
(二)开始数据集制作
(三)LabelImg标注数据集
标注好的数据集如下,为xml格式:
利用VOC制作自己的数据集
新建文件夹,并在新建的文件夹下新建Annotations
、ImageSets
、JPEImages
三个文件夹,在ImageSets下新建Main
文件夹。
将自己的数据集图片拷贝到JPEGImages目录下。
即:
将数据集label文件拷贝到Annotations目录下。
在主文件夹下新建test.py
文件夹,输入以下代码进去运行,将生成四个文件:train.txt,val.txt,test.txt和trainval.txt。
import os
import random
trainval_percent = 0.8 #val即Validation(验证),即训练集和验证机占全体数据的比例
train_percent = 0.9 #训练集占训练集和验证集总体的比例
xmlfilepath = 'D:\\A_data\\fruits\VOC\\Annotations' #这里是我的绝对路径
txtsavepath = 'D:\\A_data\\fruits\\VOC\\ImageSets\Main' #我的绝对路径 如果使用需要修改
total_xml = os.listdir(xmlfilepath)
num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent) # 训练集和验证集总个数
tr = int(tv * train_percent) # 训练集总个数
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)
#需要生成以下四个文件,分别是test.txt,train.txt,trainval.txt,val.txt
#分别代表测试集、训练集、训练-验证集、验证集
ftrainval = open('D:\\A_data\\fruits\\VOC\\ImageSets\\Main\\trainval.txt', 'w')
ftest = open('D:\\A_data\\fruits\\VOC\\ImageSets\\Main\\test.txt', 'w')
ftrain = open('D:\\A_data\\fruits\\VOC\\ImageSets\\Main\\train.txt', 'w')
fval = open('D:\\A_data\\fruits\\VOC\\ImageSets\\Main\\val.txt', 'w')
for i in list:
name = total_xml[i][:-4] + '\n'
if i in trainval:
ftrainval.write(name)
if i in train:
ftest.write(name)
else:
fval.write(name)
else:
ftrain.write(name)
ftrainval.close()
ftrain.close()
fval.close()
ftest.close()
三、Makesense.ai制作VOC数据集
(一)在线工具Makesense
网站网址:https://www.makesense.ai/
(二)打开网址
点击Get Start
(三)插入图片
(1)点击Click here to select them,选择图片
(2)Ctrl+A全部选中 点击打开
(3)检查图片的数量是否正确,点击Object Detection
(四)建立标签
(1)点击 + ,输入自己需要的标签名字(一般是英文,也可以用拼音来代替)
(2)然后点击Start project(开始工程)
(五)开始标注
(1)用矩形工具把自己需要的目标圈出来
(2)下拉选择标签,选择自己对应的标签,只需要选择前两次,后面的它都会默认选择那个了
(六) 导出
(1)标记完所有的图片之后,点击Actions,选择Export Annotations
(2)导出的格式分贝有YOLO 和VOC,分别对应的压缩包文件是txt文件和xml文件
(3)压缩包里有对应的每张图片标记的矩形框的信息
(4)txt文件的信息大致如下