Win10--YOLOX训练和测试VOC格式数据

一、运行前准备

code:

GitHub - Megvii-BaseDetection/YOLOX: YOLOX is a high-performance anchor-free YOLO, exceeding yolov3~v5 with MegEngine, ONNX, TensorRT, ncnn, and OpenVINO supported. Documentation: https://yolox.readthedocs.io/

paper:

https://arxiv.org/pdf/2107.08430.pdf

torch2trt:

https://github.com/NVIDIA-AI-IOT/torch2trt/releases

在使用命令行进行操作的时候需要在tools/demo.py和tools/train.py中加上

import sys,os
BASE_DIR = os.path.dirname(os.path.dirname(os.path.abspath(__file__)))
sys.path.append(BASE_DIR)

此处 需要更改yolox_s.pth,模型下载地址:yolox_s.pth

建立weights文件夹将下载的yolox_s.pth放到weights文件夹下

python tools/demo.py video -n yolox-s -c weights/yolox_s.pth --path 0 --conf 0.25 --nms 0.45 --tsize 640 --save_result --device gpu

(缺少什么包直接安装)

demo测试结果

二、训练注意事项:

1.准备VOC数据集

1.将VOC数据放到datasets文件夹下(如果是自己标注的数据改成VOC格式就可以了)

2.调整训练的类别数

VOC数据的默认类别是20个,如果是自己的数据集,则调整exps/example/yolox_voc/yolox_voc_s.py下的类别数

3.调整代码

(1)更改exps/example/yolox_voc/yolox_voc_s.py下的image_sets

删除2012的目录,改为图中47行

(2)更改yolox/data/datasets/voc.py的do_python_eval

更改为317行的格式

4.训练指令

从零开始训练:

python tools/train.py -f exps/example/yolox_voc/yolox_voc_s.py -d 1 -b 24 --fp16

中断后继续训练:

将tools/train.py中的训练参数--resume默认值改为True或者在命令行中加入--resume True

参数保存在YOLOX_outputs文件夹下:

三、测试注意事项:

1.更改代码

(1)更改:yolox/data/datasets/__init__.py

加上from .voc_classes import VOC_CLASSES

(2)如果是自定义的类别需要更改yolox/data/datasets/voc_classes.py的类别名称

(3)更改demo.py

  • 加上from yolox.data.datasets import VOC_CLASSES

将main函数中的cls_names改为VOC的数据类别

cls_names = VOC_CLASSES,

2.测试指令:

(1)测试图片

python tools/mydemo.py image -f exps/example/yolox_voc/yolox_voc_s.py   -c YOLOX_outputs/yolox_voc_s/best_ckpt.pth --path assets/dog.jpg --conf 0.25 --nms 0.45 --tsize 640 --save_result --device gpu

测试结果:

(2)测试摄像头(yolox-s)(不即时展示):

python tools/demo.py webcam -n yolox-s -c weights/yolox_s.pth  --conf 0.25 --nms 0.45 --tsize 640 --save_result --device gpu

边展示写入需要修改下代码:

只显示实时测试结果:

 python tools/demo.py webcam -n yolox-s -c weights/yolox_s.pth  --conf 0.25 --nms 0.45 --tsize 640  --device gpu

测试速度如下:

参考:

YOLOX/README.md at main · Megvii-BaseDetection/YOLOX · GitHub

https://github.com/Megvii-BaseDetection/YOLOX/blob/main/docs/train_custom_data.md

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
训练自己的COCO数据集使用Yolox,首先需要创建一个Yolox的conda环境,可以使用以下命令: ``` conda create -n yolox python=3.8 ``` 然后激活这个环境: ``` conda activate yolox ``` 接下来,在Yolox的项目文件夹中安装所需的依赖项: ``` cd yolox pip install -r requirements.txt python setup.py develop ``` 为了使用COCO数据集,需要安装pycocotools,可以按照以下步骤进行: ``` git clone https://github.com/cocodataset/cocoapi cd cocoapi/PythonAPI/ python setup.py build_ext install ``` 接下来,你可以下载Yolox的预训练模型,并将其放置在项目文件夹中。然后,你可以使用以下命令运行测试演示: ``` python tools/demo.py image -f exps/default/yolox_s.py -c yolox_s.pth --path assets/dog.jpg --conf 0.25 --nms 0.45 --tsize 640 --save_result --device gpu ``` 这些命令将加载预训练Yolox模型,并根据提供的参数对一张图片进行目标检测,结果将保存在指定的路径中。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [YOLOX训练自己的数据集(coco格式)](https://blog.csdn.net/weixin_43804047/article/details/120433479)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [YOLOX训练(实现)(COCO:coco数据集)最新最全教程](https://blog.csdn.net/java_pythons/article/details/120513863)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值