yolo4在windows下训练自己的数据

制作数据集可以参考https://www.cnblogs.com/shierlou-123/p/11132990.html

标注工具可以选择labelImg
下载地址:https://github.com/tzutalin/labelImg

数据集标注不多说了
在x64目录下新建一个VOCdevkit的目录,在目录下再新增一个voc2007的文件夹。
该文件夹下包括4个文件夹Annotations、ImageSets、JPEGImages、labels
在这里插入图片描述
Annotations这个文件放xml文件
这个文件放xml文件
JPEGImages放图片文件
在这里插入图片描述
labels放生成的TXT文件,空文件夹就可以
ImageSets文件夹再新建一个Main文件夹,都是空文件夹,放生成的东西
test.py
这个是在Linux用的代码,可以用这个,但是window可以用下面的那个voc_label.py文件,windows下面这个test.py不用建都可以

import os
import random

trainval_percent = 0.1
train_percent = 0.9
xmlfilepath = 'Annotations'
txtsavepath = 'ImageSets\Main'
total_xml = os.listdir(xmlfilepath)

num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)

ftrainval = open('ImageSets/Main/trainval.txt', 'w')
ftest = open('ImageSets/Main/test.txt', 'w')
ftrain = open('ImageSets/Main/train.txt', 'w')
fval = open('ImageSets/Main/val.txt', 'w')

for i in list:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        ftrainval.write(name)
        if i in train:
            ftest.write(name)
        else:
            fval.write(name)
    else:
        ftrain.write(name)

ftrainval.close()
ftrain.close()
fval.close()
ftest.close()

voc_label.py

这个文件放在D:\amp\py\xm11\sb\build\darknet\x64目录下运行
效果是生成
在这里插入图片描述
train.txt可能前面有个2007,记得改名称
这几个文件路径在后面需要填到cfg的voc.data里面

import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join

sets=[('2007', 'train'), ('2007', 'val'), ('2007', 'test')]

classes = ["chn"]


def convert(size, box):
    dw = 1./size[0]
    dh = 1./size[1]
    x = (box[0] + box[1])/2.0
    y = (box[2] + box[3])/2.0
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x*dw
    w = w*dw
    y = y*dh
    h = h*dh
    return (x,y,w,h)

def convert_annotation(year, image_id):
    in_file = open('VOCdevkit/VOC%s/Annotations/%s.xml'%(year, image_id))
    out_file = open('VOCdevkit/VOC%s/labels/%s.txt'%(year, image_id), 'w')
    tree=ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)

    for obj in root.iter('object'):
        difficult = obj.find('difficult').text
        cls = obj.find('name').text
        if cls not in classes or int(difficult) == 1:
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text))
        bb = convert((w,h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')

wd = getcwd()

for year, image_set in sets:
    if not os.path.exists('VOCdevkit/VOC%s/labels/'%(year)):
        os.makedirs('VOCdevkit/VOC%s/labels/'%(year))
    image_ids = open('VOCdevkit/VOC%s/ImageSets/Main/%s.txt'%(year, image_set)).read().strip().split()
    list_file = open('%s_%s.txt'%(year, image_set), 'w')
    for image_id in image_ids:
        list_file.write('%s/VOCdevkit/VOC%s/JPEGImages/%s.png\n'%(wd, year, image_id))
        convert_annotation(year, image_id)
    list_file.close()


可以看到我这个classes只有chn,因为这个是只识别是中文

然后去改cfg目录下的三个文件就可以去训练数据了
在这里插入图片描述

voc.data文件内容
与上面的py文件的classes数量对应,这里是数量1

classes= 1
train  = D:\\amp\\c\\darknet-master\\build\\darknet\\x64\\train.txt
valid  = D:\\amp\\c\\darknet-master\\build\\darknet\\x64\\2007_test.txt
#difficult = data/difficult_2007_test.txt
names = D:\\amp\\c\\darknet-master\\build\\darknet\\x64\\data\\voc.names
backup = D:\\amp\\c\\darknet-master\\build\\darknet\\x64\\backup


这里的路径必须和上面的路径对应,不然会出错,记得注意路径写法\

coco.data的内容

classes= 1
names = data/coco.names

yolov3.cfg内容,没有启用GPU,详细设置自己百度一下
修改参数文件cfg/yolov3-voc.cfg
ctrl+f搜 yolo, 总共会搜出3个含有yolo的地方。
每个地方都必须要改2处, filters:3*(5+len(classes));
其中:classes: len(classes) = 1,这里以单个类dog为例
filters = 18
classes = 1
可修改:random = 1:原来是1,显存小改为0。(是否要多尺度输出。)

在这里插入图片描述

参数文件开头的地方可以选训练的batchsize,要注意!
在这里插入图片描述
下面是不同设置的含义

batch=64                         # 每batch个样本更新一次参数。
subdivisions=16               #如果内存不够大,将batch分割为subdivisions个子batch,每个子batch的大小为batch/subdivisions。
width=416            ### 网络的输入宽、高、通道数
height=416
channels=3
momentum=0.9         ### 动量 
decay=0.0005         ### 权重衰减
angle=0
saturation = 1.5     ### 饱和度
exposure = 1.5       ### 曝光度 
hue=.1               ### 色调
learning_rate=0.001  ### 学习率 
burn_in=1000         ### 学习率控制的参数
max_batches = 50200  ### 迭代次数                                          
policy=steps         ### 学习率策略 
steps=40000,45000    ### 学习率变动步长

修改data/voc.names

chn

在这里插入图片描述

修改data/coco.names

chn

下载darknet53的预训练模型。

https://pjreddie.com/darknet/yolo/

开始训练:

./darknet detector train cfg/voc.data cfg/yolov3-voc.cfg darknet53.conv.74

Windows下是

darknet.exe detector train cfg/voc.data cfg/yolov3-voc.cfg darknet53.conv.74

之后等待训练生成就可以了

Avg IOU:当前迭代中,预测的box与标注的box的平均交并比,越大越好,期望数值为1;

Class: 标注物体的分类准确率,越大越好,期望数值为1;

obj: 越大越好,期望数值为1;

No obj: 越小越好;

.5R: 以IOU=0.5为阈值时候的recall; recall = 检出的正样本/实际的正样本

0.75R: 以IOU=0.75为阈值时候的recall;

count:正样本数目。

在这里插入图片描述

这里的avg loss 大概为0.6左右就说明已经训练完毕

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
YOLO是一种目标检测算法,而YOLOX是旷视提出的一种改进的YOLO算法。研究者在YOLOX中巧妙地集成了解耦头、数据增强、无锚点以及标签分类等优秀进展,不仅实现了超越YOLOv3、YOLOv4和YOLOv5的平均准确率(AP),而且具有竞争力的推理速度。 对于YOLOv5训练自己的数据集,可以参考相关的博客和教程,如CSDN博客上的《YOLOv5训练自己的数据集(超详细完整版)》和iCode9网站上的《手把手教你用YOLOv5训练自己的数据集(从Windows环境配置到模型部署)》。这些资源提供了详细的步骤和指导,帮助初学者完成YOLOv5模型数据训练。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [YOLOX训练自己的数据集(超详细)](https://blog.csdn.net/qq_40716944/article/details/120409457)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [Yolov5训练自己的数据集(详细完整版)](https://blog.csdn.net/qq_45945548/article/details/121701492)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值