推荐:https://www.cnblogs.com/pprp/p/9525508.html
必成功案例:https://blog.csdn.net/u010122972/article/details/77259141
Darknet运行yolo理解和错误记录
对于darknet来说,它是一个封装十分严密的系统,对外的接口也十分的严格,这就导致它不够灵活,然而好在它有数据转化的demo可以很好兼容,改掉缺点。
从安装darknet开始: https://pjreddie.com/darknet/yolo/ YOLO官网可以很快的入门下载
这是我们模拟训练采集得到的数据,iamges代表图片,labels代表标签,xml格式
我们需要知道两件事:
一.它的voc.data配置文件只传送了训练集的X,也就是图片,没有标签这是怎么回事呢?
(train_names.txt中是训练集图片的绝对路径,test_names.txt是测试集图片的绝对路径)
我们可以看到train.txt中的内容,是由每一张图片的路径组成的,路径中包含了一个重要信息,images,也就是图片,
重点到了,在其封装的代码中有一个操作,它会搜索路径中的 images 字符串,并用 labels 代替 ,并将图片的后缀由jpg,改为txt,
所以我们首先应该有相对应的文件
这就找到了这个图片对应的标签Y
二.我们通常得到的标签是xml后缀的标签,但网络接受的却是txt为后缀的标签,这就需要我们对标签进行一系列的处理。
有几种调节方式:
①:使用自编代码调节
import xml.etree.ElementTree as ET
classes = ["person", "bicycle", "motorbike", "car", "bus", "truck"]
def convert(size, box):
dw = 1. / size[0]
dh = 1. / size[1]
x = (box[0] + box[1]) / 2.0
y = (box[2] + box[3]) / 2.0
w = box[1] - box[0]
h = box[3] - box[2]
x = x * dw
w = w * dw
y = y * dh
h = h * dh
return (x, y, w, h)
def convert_annotation(image_id):
in_file = open(r'/home/******/data/i_and_l/labels_xml/%s.xml' % (image_id))
out_file = open(r'/home/******/data/i_and_l/labels/%s.txt' % (image_id), 'w') # 生成txt格式文件
tree = ET.parse(in_file)
root = tree.getroot()
size = root.find('size')
w = int(size.find('width').text)
h = int(size.find('height').text)
for obj in root.iter('object'):
cls = obj.find('name').text
if cls not in classes:
continue
cls_id = classes.index(cls)
xmlbox = obj.find('bndbox')
b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
float(xmlbox.find('ymax').text))
bb = convert((w, h), b)
out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
image_ids_train = len(open(r'/home/******/data/train_names.txt').read().strip().split())
# image_ids_val = open('/home/*****/darknet/scripts/VOCdevkit/voc/list').read().strip().split()
list_file_train = open('boat_train.txt', 'w')
list_file_val = open('boat_val.txt', 'w')
for image_id in range(image_ids_train):
list_file_train.write(r'/home/******/data/i_and_l/images/%s.jpg\n' % (image_id))
convert_annotation(image_id)
list_file_train.close()
# for image_id in image_ids_val:
# list_file_val.write('/home/*****/darknet/boat_detect/images/%s.jpg\n'%(image_id))
# convert_annotation(image_id)
# list_file_val.close()
②:使用darknet自带py文件调节
https://blog.csdn.net/weixin_42731241/article/details/81352013 这里有一个网址可以使用
注意
在我的博客文件中有一个叫 create_trian_txt.py 的demo
我们可以使用它生成txt文件
将图片分为训练集和验证集的时候,可以直接使用它,调节与file_num比较的数,
就可以将图片分为训练集train.txt 和 val.txt
(思路清晰者也可以使用 ls -R 路径/*.jpg > train.txt )
之后就是上面网址中说的调用 voc_label.py
需要注释图中这一行,并且删除掉图中红行。
还需注释掉最后两行
这样数据的处理就结束了