Darknet运行yolo理解和错误记录

推荐:https://www.cnblogs.com/pprp/p/9525508.html
必成功案例:https://blog.csdn.net/u010122972/article/details/77259141

Darknet运行yolo理解和错误记录

对于darknet来说,它是一个封装十分严密的系统,对外的接口也十分的严格,这就导致它不够灵活,然而好在它有数据转化的demo可以很好兼容,改掉缺点。

从安装darknet开始: https://pjreddie.com/darknet/yolo/ YOLO官网可以很快的入门下载

在这里插入图片描述

这是我们模拟训练采集得到的数据,iamges代表图片,labels代表标签,xml格式

在这里插入图片描述

我们需要知道两件事:

一.它的voc.data配置文件只传送了训练集的X,也就是图片,没有标签这是怎么回事呢?
(train_names.txt中是训练集图片的绝对路径,test_names.txt是测试集图片的绝对路径)
在这里插入图片描述
我们可以看到train.txt中的内容,是由每一张图片的路径组成的,路径中包含了一个重要信息,images,也就是图片,
重点到了,在其封装的代码中有一个操作,它会搜索路径中的 images 字符串,并用 labels 代替 ,并将图片的后缀由jpg,改为txt,
所以我们首先应该有相对应的文件
这就找到了这个图片对应的标签Y

在这里插入图片描述

二.我们通常得到的标签是xml后缀的标签,但网络接受的却是txt为后缀的标签,这就需要我们对标签进行一系列的处理。
在这里插入图片描述
有几种调节方式:
①:使用自编代码调节

import xml.etree.ElementTree as ET



classes = ["person", "bicycle", "motorbike", "car", "bus", "truck"]





def convert(size, box):

    dw = 1. / size[0]

    dh = 1. / size[1]

    x = (box[0] + box[1]) / 2.0

    y = (box[2] + box[3]) / 2.0

    w = box[1] - box[0]

    h = box[3] - box[2]

    x = x * dw

    w = w * dw

    y = y * dh

    h = h * dh

    return (x, y, w, h)





def convert_annotation(image_id):

    in_file = open(r'/home/******/data/i_and_l/labels_xml/%s.xml' % (image_id))



    out_file = open(r'/home/******/data/i_and_l/labels/%s.txt' % (image_id), 'w')  # 生成txt格式文件

    tree = ET.parse(in_file)

    root = tree.getroot()

    size = root.find('size')

    w = int(size.find('width').text)

    h = int(size.find('height').text)



    for obj in root.iter('object'):

        cls = obj.find('name').text

        if cls not in classes:

            continue

        cls_id = classes.index(cls)

        xmlbox = obj.find('bndbox')

        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),

             float(xmlbox.find('ymax').text))

        bb = convert((w, h), b)

        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')





image_ids_train = len(open(r'/home/******/data/train_names.txt').read().strip().split())



# image_ids_val = open('/home/*****/darknet/scripts/VOCdevkit/voc/list').read().strip().split()





list_file_train = open('boat_train.txt', 'w')

list_file_val = open('boat_val.txt', 'w')



for image_id in range(image_ids_train):

    list_file_train.write(r'/home/******/data/i_and_l/images/%s.jpg\n' % (image_id))

    convert_annotation(image_id)

list_file_train.close()



# for image_id in image_ids_val:



#    list_file_val.write('/home/*****/darknet/boat_detect/images/%s.jpg\n'%(image_id))

#    convert_annotation(image_id)

# list_file_val.close()

②:使用darknet自带py文件调节
https://blog.csdn.net/weixin_42731241/article/details/81352013 这里有一个网址可以使用

注意
在我的博客文件中有一个叫 create_trian_txt.py 的demo
我们可以使用它生成txt文件

将图片分为训练集和验证集的时候,可以直接使用它,调节与file_num比较的数,
就可以将图片分为训练集train.txt 和 val.txt

(思路清晰者也可以使用 ls -R 路径/*.jpg > train.txt )
在这里插入图片描述

之后就是上面网址中说的调用 voc_label.py
需要注释图中这一行,并且删除掉图中红行。

在这里插入图片描述

还需注释掉最后两行
在这里插入图片描述

这样数据的处理就结束了

  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值