YOLO在mac上的安装和使用

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档


提示:以下是本篇文章正文内容,下面案例可供参考

一、YOLO的安装

1.在GitHub上下载源码:

https://github.com/ultralytics/yolov5/tree/v6.1
在这里插入图片描述

2.配置环境:

1.将下载好的压缩包保存至一个没有中文的路径下,点击打开PyCharm,点击open按钮,在路径中找到刚刚的源码保存路径,即可在PyCharm中打开项目。
在这里插入图片描述
⚠此时可能会跳出一个框,让你配置环境,先直接关掉。(我们后面再配置环境)
2.打开Anaconda,在左侧选择environments,点击下方create,我创建了一个新环境,命名为yolo5_test。(建议选择python3.9与yolov5适配)
在这里插入图片描述
3.打开Pycharm设置Preference
在这里插入图片描述
新建Python解释器的环境
在这里插入图片描述
4.系列库的安装
(1).打开终端,输入命令进入创建的Anaconda环境

conda activate yolov5_test 

(yolov5_test是我创建的环境名,需换成你的)

(2).配置torch和torchvision

pip install torch==1.8.1 torchvision==0.9.1 torchaudio==0.8.1

(输入后会自动提示适合你的版本,根据提示更改版本号安装即可)

(3).对照requirements.txt 配置其他所需安装包

pip install -r requirements.txt

这里我失败了,于是分别安装

pip install numpy
pip install opencv-python
pip install matplotlib
pip install pillow
pip install PyYAM
pip install scipy
pip install tqdm
pip install requests

5.运行程序
基本测试需要运行detect.py
(这里我运行时出现了bug,发现还有一些包未安装,根据提示又安装了缺少的包)
最终在pycharm中运行结果如下
在这里插入图片描述
打开exp查看结果
在这里插入图片描述

二、用YOLO测试视频

1.测试下载视频

将视频放入yolov5-6.1/data/images/中,在pycharm中运行detect.py在这里插入图片描述
打开yolov5-6.1/runs/detect/exp查看结果代码如下(示例):
在这里插入图片描述

2.用电脑自带摄像头实时监测

在detect文件最后找到此行代码
在这里插入图片描述
改为:

cd_argument('--source', type=str, default='0', help='source')  # file/folder, 0 for webcam

同样打开yolov5-6.1/runs/detect/exp查看结果

三、训练自己的数据集

1.创建环境
创建一个新的anaconda环境

conda create -n tf python=3.9.18

(改成自己的python版本)
切换到tf环境(重新打开终端时要记得切到这个环境)

conda activate tf

(前面有(tf)则是转换成功)
2.安装macos版本的TensorFlow

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple/ tensorflow==2.6

3.pyqt5安装
法一

pip install pyqt5

(这里我失败了)
法二 安装homebrew

/usr/bin/ruby-e"$(curl-fsSLhttps://raw.githubusercontent.com/Homebrew/install/master/install)"

通过homebrew安装pyqt5

brew install pyqt5

4.安装torch和torchvision

pip install torch==1.7.1 torchvision==0.8.2 -f https://download.pytorch.org/whl/torch_stable.html -i https://pypi.tuna.tsinghua.edu.cn/simple/torch

5.安装labelimg
法一

pip install labelimg

这里我失败了
法二 进入labelimg的github地址https://github.com/HumanSignal/labelImg
在这里插入图片描述
打开终端输入cd 将labeling-master文件夹拖入

brew install qt
brew install libxml2
conda install lxml
make qt5py3
python labelImg.py

就可以用labelimg标注文件啦
在这里插入图片描述
在yolov5目录下新建一个名为VOCData的文件夹,在VOCData文件夹下创建 Annotations 和 images 文件夹。
images文件夹放要训练的图片
打开目录为images文件夹
更改存放目录为Annotions文件夹
标记图片快捷键:w:标记   a:上一张图片   d:下一张图片
标注的时候尽可能贴近物体轮廓

6.划分数据集以及配置文件修改
(1)划分训练集、验证集、测试集
在终端中打开images文件夹(根据自己路径找)

cd /Users/zhuoxiaohua/Documents/yolov5-6.1/VOCData/images
Is -a
rm .DS_Store

在macos下,文件夹内会生成.Ds_store隐藏文件要先删除

在VOCData目录下创建程序 split_train_val.py 并运行以下代码(代码可以不做任何修改)

#coding:utf-8
 
import os
import random
import argparse
 
parser = argparse.ArgumentParser()
#xml文件的地址,根据自己的数据进行修改 xml一般存放在Annotations下
parser.add_argument('--xml_path', default='Annotations', type=str, help='input xml label path')
#数据集的划分,地址选择自己数据下的ImageSets/Main
parser.add_argument('--txt_path', default='ImageSets/Main', type=str, help='output txt label path')
opt = parser.parse_args()
 
trainval_percent = 1.0  # 训练集和验证集所占比例。 这里没有划分测试集
train_percent = 0.9     # 训练集所占比例,可自己进行调整
xmlfilepath = opt.xml_path
txtsavepath = opt.txt_path
total_xml = os.listdir(xmlfilepath)
if not os.path.exists(txtsavepath):
    os.makedirs(txtsavepath)
 
num = len(total_xml)
list_index = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list_index, tv)
train = random.sample(trainval, tr)
 
file_trainval = open(txtsavepath + '/trainval.txt', 'w')
file_test = open(txtsavepath + '/test.txt', 'w')
file_train = open(txtsavepath + '/train.txt', 'w')
file_val = open(txtsavepath + '/val.txt', 'w')
 
for i in list_index:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        file_trainval.write(name)
        if i in train:
            file_train.write(name)
        else:
            file_val.write(name)
    else:
        file_test.write(name)
 
file_trainval.close()
file_train.close()
file_val.close()
file_test.close()            

运行结束后会在生成一个名为 ImageSets 的文件夹
[说明]:在第14,15行代码中
训练集是用来训练模型的,通过尝试不同的方法和思路使用训练集来训练不同的模型;
验证集使用交叉验证来挑选最优的模型,通过不断的迭代来改善模型在验证集上的性能;
测试集用来评估模型的性能。

(2)XML格式转yolo_txt格式
在VOCData目录下创建程序 xml_to_yolo.py 并运行以下代码
注意:将classes改为自己标注时设置的类名(我这里叫"code"),将各个绝对路径修改为自己的

#-*- coding: utf-8 -*-
import xml.etree.ElementTree as ET
import os
from os import getcwd

sets = ['train', 'val', 'test']
classes = ["code"]  # 改成自己的类别
abs_path = os.getcwd()
print(abs_path)


def convert(size, box):
    dw = 1. / (size[0])
    dh = 1. / (size[1])
    x = (box[0] + box[1]) / 2.0 - 1
    y = (box[2] + box[3]) / 2.0 - 1
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return x, y, w, h


def convert_annotation(image):
    in_file = open('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/Annotations/%s.xml' % image, encoding='utf-8')
    out_file = open('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/labels/%s.txt' % image, 'w')
    tree = ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)
    for obj in root.iter('object'):
        difficult = obj.find('difficult').text
        # difficult = obj.find('Difficult').text
        cls = obj.find('name').text
        if cls not in classes or int(difficult) == 1:
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
             float(xmlbox.find('ymax').text))
        b1, b2, b3, b4 = b
        # 标注越界修正
        if b2 > w:
            b2 = w
        if b4 > h:
            b4 = h
        b = (b1, b2, b3, b4)
        bb = convert((w, h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')


wd = getcwd()
for image_set in sets:
    if not os.path.exists('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/labels/'):
        os.makedirs('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/labels/')
    image_ids = open(
        '/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/ImageSets/Main/%s.txt' % image_set).read().strip().split()

    if not os.path.exists('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/dataSet_path/'):
        os.makedirs('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/dataSet_path/')

    list_file = open('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/dataSet_path/%s.txt' % image_set, 'w')
    for image_id in image_ids:
        list_file.write('/Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/images/%s.jpeg\n' % image_id)
        convert_annotation(image_id)

    list_file.close()

运行后会生成dataSet_path 和 labels 文件夹。dataSet_path下会有三个数据集的txt文件,labels下存放各个图像的标注文件。

(3)配置文件
在 yolov5 的 data 文件夹下创建一个名为 myvoc.yaml,模板如下,改成自己的路径,根据自己实际情况填写:
(【🎯易错】:注意冒号后面是有空格的)

 train: /Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/dataSet_path/train.txt
 
val: /Users/zhuoxiaohua/Downloads/yolov5-6.1/VOCData/dataSet_path/val.txt

#number of classes

nc: 1

#class names

names: ["code"]

(4)聚类获得先验框
在 models 文件夹下找到 yolov5s.yaml(如果使用这个权重模型训练的话),将其中的 nc 改为实际上标注类的数量,和 myvoc.yaml 一样。
在这里插入图片描述
(5)打开pycharm 找到train.py开始训练
期间我遇到了不少bug

  • numpy has no attribute int.

删除numpy1.20.3原先版本

pip uninstall numpy 

重新下载

pip install numpy==1.22.0 -i https://pypi.tuna.tsinghua.edu.cn/simple/

将报错代码中的int改为int_

  • RuntimeError: DataLoader worker (pid(s) 2516, 1768) exited unexpectedly
    在这里插入图片描述
    将此行default改为0
  • RuntimeError: result type Float can’t be cast to the desired output type long long

将yolov5-6.1\utils\loss.py的第211行

indices.append((b, a, gj.clamp_(0, gain[3] - 1), gi.clamp_(0, gain[2] - 1)))  # image, anchor, grid indices

改为

indices.append((b, a, gj.clamp(0, int(gain[3]) - 1), gi.clamp(0, int(gain[2]) - 1)))  # image, anchor, grid indices

重新运行train.py成功

  • 31
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值