YOLOX训练自己标注的数据集

参考原作者:YOLOX训练自己的数据集(超详细)_AI小白一枚的博客-CSDN博客_yolox训练自己的数据集

YOLOX是旷视提出来的,研究者将解耦头、数据增强、无锚点以及标签分类等目标检测领域的优秀进展与 YOLO 进行了巧妙地集成组合,不仅实现了超越 YOLOv3、YOLOv4 和 YOLOv5 的 AP,而且取得了极具竞争力的推理速度。 

一、YOLOX安装 

1、下载GitHub上的代码 

git clone https://github.com/Megvii-BaseDetection/YOLOX

2、安装yolov5所需要的依赖环境
        (1)、安装代码依赖的库文件
        cd /home/xxx/xxx/xxxr/YOLOX-main

        pip3 install -U pip && pip3 install -r requirements.txt

      (2)、通过setup.py安装一些库文件

        通过setup.py安装一些库文件

        输入命令:python3 setup.py develop

        (3)、安装apex文件
        输入命令:git clone https://github.com/NVIDIA/apex

        sudo pip3 install -v --disable-pip-version-check --no-cache-dir --global-option="--cpp_ext" --global-option="--cuda_ext" ./ 

二、YOLOX训练自己的数据集

1、数据集预处理

        在这里选择使用VOC格式对YOLOX进行训练,处理的图片主要包含三个文件夹,其中Annotations存放的是xml标签数据,JPEGImages存放的是图片数据,ImageSets存放的是训练、验证、测试的txt文件。

 2、修改代码

(1)、将yolox/data/datasets/voc_classes.py中的标签信息,进行修改。

        

 注:类别后都要加逗号,例如“car”后面加了一个逗号“,”。

(2)、修改类别数量

        

  • 修改exps/example/yolox_voc/yolox_voc_s.py中的self.num_classes

  • 修改yolox/exp/yolox_base.py中的self.num_classes

 (3)、修改数据集路径配置        

  • 修改exps/example/yolox_voc/yolox_voc_s.py中的VOCDection。

        data_dir是数据集的根目录,

        images_sets修改为trainval

        max_labels表示图片最多的目标数量,设为50。

        egg:也可以通过软连接的方式加载数据集训练

                ln -s /pgf_api/datasets/VOC2007 ./datasets/VOCdevkit/VOC2007

                上述第二目录为根目录下的datasets

  • 修改yolox/data/datasets/voc.py中,VOCDection函数中的读取txt文件。

 将该路径修改为自己txt的路径

(4)、修改exps/example/yolox_voc/yolox_voc_s.py中的get_eval_loader函数。

 data_dir是VOC数据集的绝对路径,

images_sets修改为test

(5)、修改不同的网络结构

        以YOLOX_I网络为例,比如在exps/default/yolox_I.py中,self.depth=1.0,self.width=1.0。和Yolov5中的不同网络调用方式一样。

          为了统一不同的网络结构,继续修改exps/example/yolox_voc/yolox_voc_s.py中的,self.depth和self.width。

        

         再修改yolox/exp/yolox_base.py中的,self.depth和self.width。

                

(6)、修改其他相关参数

  • 修改验证epoch的数量

        目前代码中是训练迭代10个epoch,再对验证集做1次验证,但大白想每迭代1个epoch,即做一个验证,及时看到效果。 

        在 ./yolox/exp/yolox_base.py中搜索以下参数并修改        

self.max_epoch = 300
self.print_interval = 10
self.eval_interval = 10

        分别为训练最大epoch、验证间隔epoch

  • 修改验证时的相关信息

主要对读取验证信息的相关代码进行调整,代码在yolox/data/datasets/voc.py中_do_python_eval函数中。

  • 因为自有数据集没有year信息,所以将其中的rootpath和name修改
  • 因为没有year信息,所以将其中的cachedir修改;修改use_07_metric的信息。

三、YOLOX训练

 1、终端训练

将下载好的yolox_s.pth.tar放到YOLOX文件夹中,打开终端,在终端中输入:

        python3 tools/train.py -f exps/example/yolox_voc/yolox_voc_s.py -d 0 -b 64  -c yolox_s.pth.tar

2、Pycharm训练

修改tools/train.py中的几个参数

parser.add_argument("-b", "--batch-size", type=int, default=64, help="batch size")#根据自己机器的配置,设置batch-size的参数,比如设置为64。
parser.add_argument(
        "-d", "--devices", default=None, type=int, help="device for training"
    )#如果GPU服务器只有1张卡,将devices的default修改为0。
parser.add_argument(
        "-f",
        "--exp_file",
        default=None,
        type=str,
        help="plz input your experiment description file",
    )#将exp_file的default修改为yolox_voc_s.py的路径(如代码版本更新,可重置路径)。
parser.add_argument("-c", "--ckpt", default=None, type=str, help="checkpoint file")#如果使用预训练权重,将ckpt的default修改为模型权重的路径。

        训练走起!

四、YOLOX训练及常见问题

        在训练完成后,可以对训练的YOLOX算法模型进行测试,测试文件保存在tools/文件夹下,测试可以运行demo.py和eval.py这两个文件

1、demo测试 

  • 首先是选择测试的模式是图片还是视频,然后输入需要测试图片/视频的路径
    •  “demo” 参数包括image、video、webcam
    • "--path" 参数与上述参数一致,如果是图像,指定图像绝对路径
    • parser.add_argument(
              "--path", default="./assets/dog.jpg", help="path to images or video"
          )
  • 修改网络配置参数

    • parser.add_argument(
              "-f",
              "--exp_file",
              default='/home/oem/xxx/path_to_pro_root/YOLOX/exps/example/yolox_voc/yolox_voc_s.py',
              type=str,
              help="pls input your experiment description file",
          )

       

2、eval.py进行模型量化评估

        修改测试模型路径和置信度阈值、nms阈值和测试图像大小,输出模型在测试集的mAP等指标

  • 修改训练后模型的保存地址,以及是否使用GPU进行加速

    • parser.add_argument("-c", "--ckpt", default='/home/oem/XXX/PATH_TO_PRO_ROOT/YOLOX/YOLOX_outputs/yolox_voc_s/best_ckpt.pth', type=str, help="ckpt for eval")
          parser.add_argument(
              "--device",
              default="gpu",
              type=str,
              help="device to run our model, can either be cpu or gpu",
          )
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值