Yolov7:安装配置以及训练自己的训练集

yolov7:安装配置以及训练自己的数据集

1.安装并测试yolov7

1.下载yolov7源码及yolov7权重

源码和权重在github上下载,权重下载完放在yolov7源码根目录

https://github.com/WongKinYiu/yolov7
在这里插入图片描述
在这里插入图片描述

不方便的下载百度云连接:

链接:https://pan.baidu.com/s/1eT2dkvYJBxwIER1bGNtGZQ
提取码:ytkm

下载完源码和权重后在pycharm中打开。

2.环境配置

在Anconda中创造Yolov7环境:

激活Yolov7环境 并安装Yolov7所需各种包,采用清华镜像源安装所需包,在终端中执行命令

activate yolov7
pip install -r F:\objectdet\yolov7-main/requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

将requirements.txt路径改为源码中requirements.txt所在路径。

如果完全按照requirements.txt来安装的话,你会发现安装的torch版本并不是gpu版本,所以得重新安装gpu版本的才能用你的gpu来训练Yolov7

安装pytorch

进入pytorch官网:Start Locally | PyTorch

根据版本选择,然后在终端中输入红框所示指令
在这里插入图片描述
在终端中输入pip list查看安装的包

在pycharm中安装环境
在这里插入图片描述

3.测试

运行detect.py,可进行测试。

测试文件在inference文件夹下,可修改测试内容
在这里插入图片描述

2.样本标注软件labelimg的安装和使用

1.安装labelimg:ctrl+R输入cmd打开终端输入命令行快速安装。
pip install labelimg -i https://pypi.tuna.tsinghua.edu.cn/simple
2.打开labelimg:在命令行中输入快速打开。
labelimg
3.基本使用方法:

主要操作:打开软件后选择标注图片目录和存放标注XML格式文件目录,按W画框框住目标后进行标注,将目标逐一标注完后按D切换至下一张,保存文件为XML格式,可用文本编辑器打开。
在这里插入图片描述
基本快捷键:按W快捷键画框,按A和D切换下一张,ctrl+滚轮调整图片大小,左键拖动,ctrl+S保存。
在这里插入图片描述
建议设置:建议打开自动保存方便保存和显示标注框和标签防止标错。
在这里插入图片描述

注意:如果在labelimg中打不开XML文件可能是新旧版本问题,可尝试将路径改为英文路径。

3.训练自己的数据

1.转换数据

我们需要将用标注软件生成的XML格式文件转为TXT文件。

我们先根据以下格式创建文件夹。
在这里插入图片描述
将图片和标注文件分别放到images和Annotations文件夹中。

运行代码text_yolo.py,代码如下,注意修改class_names,xmlpath,txtpath。

import os.path
import xml.etree.ElementTree as ET

class_names = ['0','1','2','3','4','5','6','7','8','A','B','C','D','E','F','G','H','I','J','K','L',
'M','N','O','P','Q','R','S','T','U','V','W','X','Y','Z','&']

xmlpath = "D:\\Downloads\\yolov7-main\\VOCData\\Annotations\\"  # 原xml路径
txtpath = "D:\\Downloads\\yolov7-main\\VOCData\\txts\\" # 转换后txt文件存放路径
files = []
if not os.path.exists(txtpath):
    os.makedirs(txtpath)

for root, dirs, files in os.walk(xmlpath):
    None

number = len(files)
#number = 409 # 若无法识别可手动输入数据集数量
print(number)
i = 0
while i < number:

    name = files[i][0:-4]
    xml_name = name + ".xml"
    txt_name = name + ".txt"
    print(name)
    xml_file_name = xmlpath + xml_name
    txt_file_name = txtpath + txt_name

    xml_file = open(xml_file_name,"rb")
    tree = ET.parse(xml_file)
    root = tree.getroot()
    # filename = root.find('name').text

    # image_name = root.find('filename').text
    w = int(root.find('size').find('width').text)
    h = int(root.find('size').find('height').text)

    f_txt = open(txt_file_name, 'w+')
    content = ""

    first = True

    for obj in root.iter('object'):

        name = obj.find('name').text
        class_num = class_names.index(name)

        xmlbox = obj.find('bndbox')
        x1 = int(xmlbox.find('xmin').text)
        x2 = int(xmlbox.find('xmax').text)
        y1 = int(xmlbox.find('ymin').text)
        y2 = int(xmlbox.find('ymax').text)

        if first:
            content += str(class_num) + " " + \
                       str((x1 + x2) / 2 / w) + " " + str((y1 + y2) / 2 / h) + " " + \
                       str((x2 - x1) / w) + " " + str((y2 - y1) / h)
            first = False
        else:
            content += "\n" + \
                       str(class_num) + " " + \
                       str((x1 + x2) / 2 / w) + " " + str((y1 + y2) / 2 / h) + " " + \
                       str((x2 - x1) / w) + " " + str((y2 - y1) / h)

    # print(str(i / (number - 1) * 100) + "%\n")
    print(content)
    f_txt.write(content)
    f_txt.close()
    xml_file.close()
    i += 1

TXT文件夹结果:
在这里插入图片描述
左边数字表示类的序号

2.划分训练集和验证集

在ImagesSets/Main下生成train.txt,val.txt。

运行代码split_train_val.py,代码如下,注意修改xmlfilepath,saveBasePath。

import os
import random

random.seed(0)

xmlfilepath = 'D:\\Downloads\\yolov7-main\\VOCData\\Annotations'
saveBasePath ='D:\\Downloads\\yolov7-main\\VOCData\\ImageSets\\main'

# ----------------------------------------------------------------------#
#   想要增加测试集修改trainval_percent
#   train_percent不需要修改
# ----------------------------------------------------------------------#
trainval_percent = 1
train_percent = 0.8

temp_xml = os.listdir(xmlfilepath)
total_xml = []
for xml in temp_xml:
    if xml.endswith(".xml"):
        total_xml.append(xml)

num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)

print("train and val size", tv)
print("traub suze", tr)
ftrainval = open(os.path.join(saveBasePath, 'trainval.txt'), 'w')
ftest = open(os.path.join(saveBasePath, 'test.txt'), 'w')
ftrain = open(os.path.join(saveBasePath, 'train.txt'), 'w')
fval = open(os.path.join(saveBasePath, 'val.txt'), 'w')

for i in list:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        ftrainval.write(name)
        if i in train:
            ftrain.write(name)
        else:
            fval.write(name)
    else:
        ftest.write(name)

ftrainval.close()
ftrain.close()
fval.close()
ftest.close()
3.生成最终结果

根据train.txt和val.txt将图片和txt分别复制到labels和images。

运行代码clauculate_anchors.py,代码如下,注意修改各种路径,以及图片的后缀名。

import os
import shutil
from tqdm import tqdm

SPLIT_PATH = "D:\\Downloads\\yolov7-main\\VOCData\\ImageSets\\main\\"
IMGS_PATH = "D:\\Downloads\\yolov7-main\\VOCData\\images\\"
TXTS_PATH = "D:\\Downloads\\yolov7-main\\VOCData\\txts\\"

TO_IMGS_PATH = "D:\\Downloads\\yolov7-main\\VOCData\\lesson\\images\\"
TO_TXTS_PATH = "D:\\Downloads\\yolov7-main\\VOCData\\lesson\\labels\\"

data_split = ['train.txt', 'val.txt']
to_split = ['train2017', 'val2017']

for index, split in enumerate(data_split):
    split_path = os.path.join(SPLIT_PATH, split)

    to_imgs_path = os.path.join(TO_IMGS_PATH, to_split[index])
    if not os.path.exists(to_imgs_path):
        os.makedirs(to_imgs_path)

    to_txts_path = os.path.join(TO_TXTS_PATH, to_split[index])
    if not os.path.exists(to_txts_path):
        os.makedirs(to_txts_path)

    f = open(split_path, 'r')
    count = 1

    for line in tqdm(f.readlines(), desc="{} is copying".format(to_split[index])):
        # 复制图片
        src_img_path = os.path.join(IMGS_PATH, line.strip() + '.bmp')
        dst_img_path = os.path.join(to_imgs_path, line.strip() + '.bmp')
        if os.path.exists(src_img_path):
            shutil.copyfile(src_img_path, dst_img_path)
        else:
            print("error file: {}".format(src_img_path))

        # 复制txt标注文件
        src_txt_path = os.path.join(TXTS_PATH, line.strip() + '.txt')
        dst_txt_path = os.path.join(to_txts_path, line.strip() + '.txt')
        if os.path.exists(src_txt_path):
            shutil.copyfile(src_txt_path, dst_txt_path)
        else:
            print("error file: {}".format(src_txt_path))

最终结果:

Lesion/images/train2017 中存放的是所有训练图片

Lesion/images/val2017 中存放的是所有验证图片

Lesion/labels/train2017 中存放的是所有训练图片的目标框txt

Lesion/labels/val2017 中存放的是所有验证图片的目标框txt

4.创建myData.yaml

在data文件夹中复制一份coco.yaml重命名为myData.yaml,以此为蓝本修改训练集,验证集,类数,类名。
在这里插入图片描述
注意train.py中使用的权重
在这里插入图片描述
修改使用权重中类数
在这里插入图片描述
根据计算机的性能选择黄框内参数,如果报错out of memory 错误,可能是电脑显存不足,也可能是cuda自身限制函数。可以将调低batch-size,至少为1或者将图片大小调小。其他参数可以参照我的数据修改,主要修改红框数据。
在这里插入图片描述
设置完成无误后运行train.py,开始训练,结果保存在runs/train/exp下。
在这里插入图片描述

5.测试

训练完后用detect.py进行测试,修改权重和路径,将权重改为训练所得pt文件(结果在runs/train/exp/weights/下)
在这里插入图片描述#### 6.生成onnx格式文件

1.安装依赖库:

在打开终端命令行中快速安装:

pip install onnx coremltools onnx-simplifier

2.生成onnx格式文件:

打开终端在命令行中输入:

python models/export.py --weights runs\train\exp7\weights\best.pt --img 640 --batch 1
python models/export.py --weights ..\runs\train\exp7\weights\best.pt --include onnx

img-q45V08nG-1681695911482)]

6.生成onnx格式文件

1.安装依赖库:

在打开终端命令行中快速安装:

pip install onnx coremltools onnx-simplifier

2.生成onnx格式文件:

打开终端在命令行中输入:

python models/export.py --weights runs\train\exp7\weights\best.pt --img 640 --batch 1
python models/export.py --weights ..\runs\train\exp7\weights\best.pt --include onnx

注意修改训练得到的pt文件路径,生成onnx文件是pt文件大小的两倍左右,如果不是可能是哪里有问题。

  • 0
    点赞
  • 36
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
yolov7训练环境配置可以参考以下步骤: 1. 首先,确保你的电脑已经安装了Python环境。你可以从Python官方网站下载适用于你的操作系统的Python版本并进行安装。 2. 安装必要的依赖库。yolov7训练依赖于一些第三方库,例如torch、numpy等。你可以使用pip命令来安装它们,比如`pip install torch numpy`。 3. 下载yolov7的源代码。你可以从GitHub上找到yolov7的源代码,并将其下载到你的本地文件夹中。 4. 配置数据集。yolov7训练需要一个数据集来进行训练。你可以根据你的需求准备自己的数据集,或者找到现有的数据集来使用。确保你的数据集符合yolov7的格式要求,并提供相应的标注文件。 5. 配置训练参数。在训练过程中,你需要指定一些参数,例如学习率、批大小、训练轮数等。你可以根据具体需求修改配置文件中的参数,比如yolov7s.yaml文件。 6. 开始训练。使用命令行工具进入yolov7的源代码文件夹中,然后运行相应的训练命令,比如`python train.py --data dataset.yaml --cfg yolov7s.yaml --weights yolov7s.pt --batch-size 4 --epochs 100`。其中,dataset.yaml是你配置的数据集文件,yolov7s.yaml是你修改过的配置文件,yolov7s.pt是预训练的模型权重文件,batch-size是每个批次的图片数量,epochs是训练的轮数。 7. 等待训练完成。训练过程可能需要一段时间,具体时间取决于你的数据集大小和训练参数设置。训练完成后,你可以在训练过程中保存的模型文件中找到训练好的模型权重。 以上是yolov7训练环境配置的一般步骤,你可以根据具体需求进行相应的调整和修改。请注意,这只是一个简要的说明,详细的配置训练教程可以参考相关文档和资源。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [yolov3训练环境配置训练教程(YOLOv5部分通用)](https://download.csdn.net/download/qq_46585641/87448409)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [yolov7训练自己的数据集+教程+二维码检测](https://download.csdn.net/download/weixin_41868104/86059785)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [YOLOv5模型训练环境配置](https://blog.csdn.net/fangqingivu/article/details/127287926)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值