参考原作者:YOLOX训练自己的数据集(超详细)_AI小白一枚的博客-CSDN博客_yolox训练自己的数据集
YOLOX是旷视提出来的,研究者将解耦头、数据增强、无锚点以及标签分类等目标检测领域的优秀进展与 YOLO 进行了巧妙地集成组合,不仅实现了超越 YOLOv3、YOLOv4 和 YOLOv5 的 AP,而且取得了极具竞争力的推理速度。
一、YOLOX安装
1、下载GitHub上的代码
git clone https://github.com/Megvii-BaseDetection/YOLOX
2、安装yolov5所需要的依赖环境
(1)、安装代码依赖的库文件
cd /home/xxx/xxx/xxxr/YOLOX-main
pip3 install -U pip && pip3 install -r requirements.txt
(2)、通过setup.py安装一些库文件
通过setup.py安装一些库文件
输入命令:python3 setup.py develop
(3)、安装apex文件
输入命令:git clone https://github.com/NVIDIA/apex
sudo pip3 install -v --disable-pip-version-check --no-cache-dir --global-option="--cpp_ext" --global-option="--cuda_ext" ./
二、YOLOX训练自己的数据集
1、数据集预处理
在这里选择使用VOC格式对YOLOX进行训练,处理的图片主要包含三个文件夹,其中Annotations存放的是xml标签数据,JPEGImages存放的是图片数据,ImageSets存放的是训练、验证、测试的txt文件。
2、修改代码
(1)、将yolox/data/datasets/voc_classes.py中的标签信息,进行修改。
注:类别后都要加逗号,例如“car”后面加了一个逗号“,”。
(2)、修改类别数量
- 修改exps/example/yolox_voc/yolox_voc_s.py中的self.num_classes
- 修改yolox/exp/yolox_base.py中的self.num_classes
(3)、修改数据集路径配置
- 修改exps/example/yolox_voc/yolox_voc_s.py中的VOCDection。
data_dir是数据集的根目录,
images_sets修改为trainval
max_labels表示图片最多的目标数量,设为50。
egg:也可以通过软连接的方式加载数据集训练
ln -s /pgf_api/datasets/VOC2007 ./datasets/VOCdevkit/VOC2007
上述第二目录为根目录下的datasets
- 修改yolox/data/datasets/voc.py中,VOCDection函数中的读取txt文件。
将该路径修改为自己txt的路径
(4)、修改exps/example/yolox_voc/yolox_voc_s.py中的get_eval_loader函数。
data_dir是VOC数据集的绝对路径,
images_sets修改为test
(5)、修改不同的网络结构
以YOLOX_I网络为例,比如在exps/default/yolox_I.py中,self.depth=1.0,self.width=1.0。和Yolov5中的不同网络调用方式一样。
为了统一不同的网络结构,继续修改exps/example/yolox_voc/yolox_voc_s.py中的,self.depth和self.width。
再修改yolox/exp/yolox_base.py中的,self.depth和self.width。
(6)、修改其他相关参数
- 修改验证epoch的数量
目前代码中是训练迭代10个epoch,再对验证集做1次验证,但大白想每迭代1个epoch,即做一个验证,及时看到效果。
在 ./yolox/exp/yolox_base.py中搜索以下参数并修改
self.max_epoch = 300
self.print_interval = 10
self.eval_interval = 10
分别为训练最大epoch、验证间隔epoch
- 修改验证时的相关信息
主要对读取验证信息的相关代码进行调整,代码在yolox/data/datasets/voc.py中_do_python_eval函数中。
- 因为自有数据集没有year信息,所以将其中的rootpath和name修改
- 因为没有year信息,所以将其中的cachedir修改;修改use_07_metric的信息。
三、YOLOX训练
1、终端训练
将下载好的yolox_s.pth.tar放到YOLOX文件夹中,打开终端,在终端中输入:
python3 tools/train.py -f exps/example/yolox_voc/yolox_voc_s.py -d 0 -b 64 -c yolox_s.pth.tar
2、Pycharm训练
修改tools/train.py中的几个参数
parser.add_argument("-b", "--batch-size", type=int, default=64, help="batch size")#根据自己机器的配置,设置batch-size的参数,比如设置为64。
parser.add_argument(
"-d", "--devices", default=None, type=int, help="device for training"
)#如果GPU服务器只有1张卡,将devices的default修改为0。
parser.add_argument(
"-f",
"--exp_file",
default=None,
type=str,
help="plz input your experiment description file",
)#将exp_file的default修改为yolox_voc_s.py的路径(如代码版本更新,可重置路径)。
parser.add_argument("-c", "--ckpt", default=None, type=str, help="checkpoint file")#如果使用预训练权重,将ckpt的default修改为模型权重的路径。
训练走起!
四、YOLOX训练及常见问题
在训练完成后,可以对训练的YOLOX算法模型进行测试,测试文件保存在tools/文件夹下,测试可以运行demo.py和eval.py这两个文件
1、demo测试
- 首先是选择测试的模式是图片还是视频,然后输入需要测试图片/视频的路径
-
- “demo” 参数包括image、video、webcam
- "--path" 参数与上述参数一致,如果是图像,指定图像绝对路径
-
parser.add_argument( "--path", default="./assets/dog.jpg", help="path to images or video" )
-
修改网络配置参数
-
parser.add_argument( "-f", "--exp_file", default='/home/oem/xxx/path_to_pro_root/YOLOX/exps/example/yolox_voc/yolox_voc_s.py', type=str, help="pls input your experiment description file", )
-
2、eval.py进行模型量化评估
修改测试模型路径和置信度阈值、nms阈值和测试图像大小,输出模型在测试集的mAP等指标
-
修改训练后模型的保存地址,以及是否使用GPU进行加速
-
parser.add_argument("-c", "--ckpt", default='/home/oem/XXX/PATH_TO_PRO_ROOT/YOLOX/YOLOX_outputs/yolox_voc_s/best_ckpt.pth', type=str, help="ckpt for eval") parser.add_argument( "--device", default="gpu", type=str, help="device to run our model, can either be cpu or gpu", )
-