利用pytorch-yolo训练KITTI数据集

毕设的第二阶段,就是对融合后的图像进行目标检测,这里首先使用KITTI数据集的原始图像进行目标检测,代码使用的是u版pytorch-yolo : https://github.com/ultralytics/yolov3

 

一、环境配置

我使用的环境是 win10 + cuda 11.1 + python 3.8 +  pytorch1.6.0

 

二、数据准备

将数据集Annotations、JPEGImages复制到yolov3-master工程目录下的data文件夹下;同时新建两个文件夹,分别命名为ImageSets和labels,最后我们将JPEGImages文件夹复制粘贴一下,并将文件夹重命名为images

注意,JPEGImages中的文件格式为png,images中的文件格式为jpg,只需在CMD中使用 ren *.png *.jpg 即可完成批量转换

 

在工程的根目录下新建一个文件makeTxt.py

import os
import random

trainval_percent = 0.1
train_percent = 0.9
xmlfilepath = 'data/Annotations'
txtsavepath = 'data/ImageSets'
total_xml = os.listdir(xmlfilepath)

num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)

ftrainval = open('data/ImageSets/trainval.txt', 'w')
ftest = open('data/ImageSets/test.txt', 'w')
ftrain = open('data/ImageSets/train.txt', 'w')
fval = open('data/ImageSets/val.txt', 'w')

for i in list:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        ftrainval.write(name)
        if i in train:
            ftest.write(name)
        else:
            fval.write(name)
    else:
        ftrain.write(name)

ftrainval.close()
ftrain.close()
fval.close()
ftest.close()

运行makeTxt.py后, ImageSets得到四个文件,主要存储图片名称。

 

运行根目录下voc_label.py,得到labels的具体内容以及data目录下的train.txt,test.txt,val.txt,这里的train.txt得到文件名,还有文件的具体路径。train.txt和val.txt合并得到train.txt,test.txt作为验证集

 

 

voc_label.py的代码如下

import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join

sets = ['train', 'test', 'val']

classes = ["Car","Pedestrian","Cyclist"]  # 现在只有3类物体:车,行人,骑自行车的人


def convert(size, box):
    dw = 1. / size[0]
    dh = 1. / size[1]
    x = (box[0] + box[1]) / 2.0
    y = (box[2] + box[3]) / 2.0
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return (x, y, w, h)


def convert_annotation(image_id):
    in_file = open('data/Annotations/%s.xml' % (image_id))
    out_file = open('data/labels/%s.txt' % (image_id), 'w')
    tree = ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)

    for obj in root.iter('object'):
        #difficult = obj.find('difficult').text
        cls = obj.find('name').text
        # if cls not in classes or int(difficult) == 1:
        #     continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
             float(xmlbox.find('ymax').text))
        bb = convert((w, h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')


wd = getcwd()
print(wd)
for image_set in sets:
    if not os.path.exists('data/labels/'):
        os.makedirs('data/labels/')
    image_ids = open('data/ImageSets/%s.txt' % (image_set)).read().strip().split()
    list_file = open('data/%s.txt' % (image_set), 'w')
    for image_id in image_ids:
        list_file.write('data/images/%s.jpg\n' % (image_id))
        convert_annotation(image_id)
    list_file.close()

 

三、修改配置文件

在data文件下新建kitti.data,配置内容如下:

classes=3
train=data/train.txt
valid=data/test.txt
names=data/kitti.names
backup=backup/
eval=coco

 

再在data文件下新建kitti.names,配置内容如下:

Car
Pedestrian
Cyclist

 

修改cfg

       在原工程下cfg目录下有很多的yolov3网络结构,我们本次采用的是yolov3-tiny.cfg。

我们需要将cfg下的yolov3-tiny.cfg文件进行修改,修改内容如下:

首先找到yolo的那一栏,将其中的 classes改为你数据集的分类数(我这里是3),然后将每一个yolo上面的convolutional中的

改为 filters = 24 (3 * (5 + 分类数))

 

四、获取权重

     获取网络参数yolov3-tiny.weights,下载链接https://pjreddie.com/media/files/yolov3-tiny.weights,下载后导入weights文件夹下;同样还需要下载yolov3-tiny.conv.15,下载导入weights文件夹下,下载链接如下:https://pan.baidu.com/s/1nv1cErZeb6s0A5UOhOmZcA
提取码:t7vp

 

五、训练

在yolov3-master目录下,cmd命令行中输入,python train.py --data data/kitti.data --cfg cfg/yolov3-tiny.cfg --weights weights/yolov3-tiny.weights

即可开始训练

 

 

训练后会得到两个模型

 

 

六、预测

在cmd下输入命令,python detect.py --name data/kitti.data --cfg cfg/yolov3-tiny.cfg --weights weights/best.pt

即可进行预测,得到的结果会输出到output文件夹下

  • 0
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 4
    评论
在使用pytorch-yolo时,为了使用模型进行目标检测,我们需要下载预训练的权重文件和相关的数据集。 首先,我们需要下载YOLOv3预训练权重文件。可以通过执行以下命令来下载: ``` wget https://pjreddie.com/media/files/yolov3.weights ``` 下载完成后,我们可以使用权重文件进行目标检测。但是,请记住,这个权重文件是基于Darknet架构训练的,而pytorch-yolo是基于PyTorch框架的。因此,我们需要将Darknet权重文件转换为PyTorch的权重文件格式。可以使用pytorch-yolo提供的`darknet2pytorch.py`脚本来进行转换: ``` python darknet2pytorch.py yolov3.cfg yolov3.weights yolov3.pt ``` 请确保将`yolov3.cfg`和`yolov3.weights`替换为下载的权重文件的路径。转换后,将生成一个`yolov3.pt`文件,我们可以使用这个文件进行目标检测。 除了预训练权重文件,我们还需要下载用于训练和测试的数据集pytorch-yolo支持许多常见的目标检测数据集,如COCO、VOC等。可以通过执行以下命令来下载相应的数据集: COCO数据集: ``` sh data/scripts/COCO/download.sh ``` VOC数据集: ``` sh data/scripts/VOC/download.sh ``` 这些命令将自动下载并提取相应的数据集。 总结起来,为了使用pytorch-yolo进行目标检测,我们需要下载预训练权重文件和相关的数据集。通过执行相应的下载命令,我们可以获取所需的文件,并开始进行目标检测
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

潇湘夜雨~

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值