mmdetection之cascade_rcnn快速训练自己数据教程(亲测!)

我们在使用mmdetection中神经网络训练自己的数据集时,工具中大部分的网络模型要求使用的数据格式要同COCO,COCO数据集的标注文件是json的格式,但是我们自己标注的annotation文件多是xml文件。接下来我将介绍如何用mmdetection训练自己标注的数据集。

一、mmdetection的安装(目前官方只支持Linux系统安装)

1,安装环境:

  1.   Ubuntu16.04
  2.   CUDA9.0
  3.   CUDNN8.0
  4.   Pytorch1.1
  5.   Python3.7

2,这里建议使用单独的虚拟环境:

1,终端创建虚拟环境:conda create -n  虚拟环境名称  python=3.7

2,进入虚拟环境: source activate 虚拟环境名称 (退出指令:source deactivate)

3,利用conda 安装pytorch 和torchvision

conda install pytorch torchvision -c pytorch

4,下载mmdetection工具并配置虚拟环境:

 下载地址:https://github.com/python-bookworm/mmdetection-new

5,安装依赖库:

pip install -r requirements.txt

二、配置cascade_rcnn训练数据:

1,数据准备:

训练的原始样本图片放到mmdetection/data/coco/train2017文件夹下;用于验证的原始图片数据放data/coco/val2017

训练的标注数据(xml)放到mmdetection/data/coco/annotations/train文件夹;用于验证的标准数据(xml)放

mmdetection/data/coco/annotations/val文件夹;

2,xml转json:

打开mmdetection/xml2json.py,修改convert()中的文件路径,运行xml2json.py;

3,网络参数配置:cascade_rcnn_r50_fpn_1x.py

打开mmdetection/configs/cascade_rcnn_r50_fpn_1x.py:

     1,修改num_classes:#分类器的类别数量+1,+1是多了一个背景的类型;

     2,修改data_root:#数据集根目录

     3,修改img_scale:#输入的图像尺寸

     4,修改imgs_per_gpu:#每个gpu计算的图像数量

     5,修改workers_per_gpu:#每个gpu分配的线程数

     6,修改ann_file和img_prefix:#数据集annotation路径和数据集路径

     7,修改optimizer中的lr:#学习率,计算公式:imgs_per_gpu*0.00125

     8,修改total_epochs:#训练轮数

     9,work_dir:#log文件和模型文件存储路径

4,打开mmdetection/mmdet/datasets/coco.py:

     修改CLASSES中类别:#修改成自己的类别

三、运行train.py开始训练模型:

终端运行指令:python tools/train.py  configs/cascade_rcnn_r50_fpn_1x.py

 

注:python的版本为3.6或3.7。

  • 6
    点赞
  • 43
    收藏
    觉得还不错? 一键收藏
  • 9
    评论
根据您提供的配置文件,这是一个用于姿态估计的pose_demo的配置示例。该配置文件包括了处理器配置(processor_cfg)和命令行参数配置(argparse_cfg)。 处理器配置包括以下内容: - type:指定处理器类型为"processor.pose_demo.inference",这可能是一个自定义的处理器类型。 - gpus:指定使用的GPU数量为1。 - worker_per_gpu:指定每个GPU的worker数量为1。 - video_file:指定输入视频的路径为"resource/data_example/skateboarding.mp4"。 - save_dir:指定结果保存的目录路径为"work_dir/pose_demo"。 检测配置(detection_cfg)包括以下内容: - model_cfg:指定检测模型的配置文件路径为"configs/mmdet/cascade_rcnn_r50_fpn_1x.py"。 - checkpoint_file:指定检测模型的checkpoint路径为"mmskeleton://mmdet/cascade_rcnn_r50_fpn_20e"。 - bbox_thre:指定检测目标的边界框阈值为0.8。 估计配置(estimation_cfg)包括以下内容: - model_cfg:指定姿态估计模型的配置文件路径为"configs/pose_estimation/hrnet/pose_hrnet_w32_256x192_test.yaml"。 - checkpoint_file:指定姿态估计模型的checkpoint路径为"mmskeleton://pose_estimation/pose_hrnet_w32_256x192"。 - data_cfg:指定姿态估计模型的数据配置,包括图像尺寸、像素标准化值、图像均值和标准差以及后处理选项。 命令行参数配置(argparse_cfg)包括了一些命令行参数的绑定,用于从命令行传递参数给处理器配置。 例如,您可以使用以下命令行参数来运行pose_demo: ``` python pose_demo.py --gpus 1 --video resource/data_example/skateboarding.mp4 --worker_per_gpu 1 --skeleton_model configs/pose_estimation/hrnet/pose_hrnet_w32_256x192_test.yaml --skeleton_checkpoint mmskeleton://pose_estimation/pose_hrnet_w32_256x192 --detection_model configs/mmdet/cascade_rcnn_r50_fpn_1x.py --detection_checkpoint mmskeleton://mmdet/cascade_rcnn_r50_fpn_20e ``` 请注意,以上仅为示例,具体的使用方式和命令行参数可能会有所不同,具体取决于实际情况。 如果您有进一步的问题,请提供更多细节,我将尽力帮助您。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值