1.下载ssd-tensorflow工程压缩包
Github:https://github.com/balancap/SSD-Tensorflow
2.解压
checkpoints文件夹下ssd_300_vgg.ckpt压缩文件删除,将下载的ssd512模型放在此处。
链接:https://pan.baidu.com/s/13rXshm9s8D-7BjX0bNhpkg 提取码:f0k5
3.准备训练数据
按照VOC2007格式制作自己的数据集,SegmentationObject & SegmentationClass保存的是物体分割后的数据,在物体识别中没有用到。
(1)Annotations存放xml格式的标签文件,每个xml对应JPEGImage中的一张图片。
(2)ImageSets里main文件夹中放入train.txt, val.txt, trainval.txt, test.txt四个文件,txt文件内容为图片的文件名(不带后缀),train.txt用于训练的图片文件的文件名列表;val.txt——训练过程用来验证的图片文件的文件名列表,一般保持和train中图片数量相近;trianval.txt——用来训练和验证的图片文件的文件名列表,数量为train和val中图片数量之和;test.txt——用来测试已训练的模型的文件名列表,数量一般和trainval中图片数量相近。
以下是生成.txt文件的代码:
import os
import random
xmlfilepath=r'/home/VOC2007/Annotations/'
saveBasePath=r"/home/VOC2007/ImageSets/"
trainval_percent=0.9
train_percent=0.9
total_xml = os.listdir(xmlfilepath)
num=len(total_xml)
list=range(num)
tv=int(num*trainval_percent)
tr=int(tv*train_percent)
trainval= random.sample(list,tv)
train=random.sample(trainval,tr)
print("train and val size",tv)
print("traub suze",tr)
ftrainval = open(os.path.join(saveBasePath,'Main/trainval.txt'), 'w')
ftest = open(os.path.join(saveBasePath,'Main/test.txt'), 'w')
ftrain = open(os.path.join(saveBasePath,'Main/train.txt'), 'w')
fval = open(os.path.join(saveBasePath,'Main/val.txt'), 'w')
for i in list:
name=total_xml[i][:-4]+'\n'
if i in trainval:
ftrainval.write(name)
if i in train:
ftrain.write(name)
else:
fval.write(name)
else:
ftest.write(name)
ftrainval.close()
ftrain.close()
fval.close()
ftest .close()