手把手教你如何使用MMDetection训练自己的数据集

参考 : MMDetection全流程实战指南:手把手带你构建目标检测模型

一、配置环境

1. 创建一个名为mmdetection的虚拟环境

conda create -n mmdetection python=3.9 -y
conda activate mmdetection

2. 安装GPU版本的PyTorch

# GPU版本
conda install pytorch torchvision -c pytorch

这里如果安装失败了需要去官网 pytorch官网 找对应的版本下载;

先输入nvidia-smi命令查看可下载的cuda的最高版本
在这里插入图片描述
我的可下载的最高CUDA版本为12.0,因此我选择11.8的这个下载命令进行下载

在这里插入图片描述
在这里插入图片描述

下载后进行检验是否安装成功

import torch
torch.cuda.is_available()
exit()

在这里插入图片描述
可以看到输出为true,安装成功。

3. 安装mmdetection所需的包

使用 OpenMMLab 推出的 MIM 来安装 MMEngine 和 MMCV 两个必要的库。

pip install -U openmim
mim install mmengine
mim install "mmcv>=2.0.0"

至此,需要下载的包就都全部完成了,可以使用conda list命令来查看一下是否都安装成功了。
在这里插入图片描述

二、下载源码并安装配置文件

1. 下载 GitHub 上的mmdetection源码到本地

cd /path #(进入到你自己下载mmdetection代码的位置)
# 在Github上git代码
git clone https://github.com/open-mmlab/mmdetection.git

如果git失败就直接下载源码即可

github-mmdetection

在这里插入图片描述

2. 安装源码中的配置文件

# 进入mmdetection对应的文件夹
cd mmdetection
# 安装配置文件
pip install -v -e .

在这里插入图片描述

3. 配置成功

在这里插入图片描述

三、测试是否成功安装

1. 下载配置文件和模型权重文件。

mim download mmdet --config rtmdet_tiny_8xb32-300e_coco --dest .

在这里插入图片描述
下载结束后可以在当前文件夹中发现两个文件

  • rtmdet_tiny_8xb32-300e_coco.py
  • rtmdet_tiny_8xb32-300e_coco_20220902_112414-78e30dcc.pth。
    在这里插入图片描述

2. 推理验证

python demo/image_demo.py demo/demo.jpg rtmdet_tiny_8xb32-300e_coco.py --weights rtmdet_tiny_8xb32-300e_coco_20220902_112414-78e30dcc.pth --device cuda

在输入命令后我遇到了 “AssertionError: MMCV==2.2.0 is used but incompatible. Please install mmcv>=2.0.0rc4, <2.2.0” 的问题

在这里插入图片描述

  • 解决方法:注释掉/mmdetection-main/mmdet/init.py文件中的相关断言
# assert (mmcv_version >= digit_version(mmcv_minimum_version)
#         and mmcv_version < digit_version(mmcv_maximum_version)), \
#     f'MMCV=={mmcv.__version__} is used but incompatible. ' \
#     f'Please install mmcv>={mmcv_minimum_version}, <{mmcv_maximum_version}.'

在这里插入图片描述
再次运行后成功

在这里插入图片描述
结果可在outputs文件夹中查看;

在这里插入图片描述
至此mmdetection的安装和配置完成,下面将进行自定义数据集的配置。

四、数据集准备

1. 准备好coco格式的数据集

coco格式数据集如下所示:

在这里插入图片描述
在mmdetection文件夹下新建一个data数据集,再新建一个子文件夹名为coco,然后存放自己的数据集;

在这里插入图片描述

2. 创建新的数据集类

进入 mmdet/datasets 这个文件夹里,并创建一个自己命名数据集的 Python 文件,我的叫做plantdoc.py

在这里插入图片描述
由于是 coco 格式的数据集,因此可以直接复制名为 coco.py 文件的内容到 plantdoc.py 文件,然后修改里面对应的内容。

我们需要把coco.py中的类名数据集中的类别标注的颜色换成自己的数据集的类名

  • 下图为coco.py中的内容
    在这里插入图片描述

  • 下图为我自己的plantdoc.py类
    在这里插入图片描述

3. 录入数据集

在mmdet/datasets/init.py中仿照coco的格式把我们自己的数据集进行录入。

  • import 的内容就是我们自定义的 dataset 名字
  • 最后在下面也要加上对应 Dataset 的名称。
    在这里插入图片描述

五、模型准备

1. 模型选择

在config文件夹中选择想要使用的目标检测模型,我这里选择的是deformable_detr

在这里插入图片描述

配置文件中设置的epoch=50,batch=32,我这里根据我自己的设备修改为了epoch=36,batch=8

在这里插入图片描述

2. 配置文件准备及修改

由于在 MMDetection 里大多用的都是 COCO 格式的数据集,因此在这里直接修改 work_dir 文件夹里对应的配置文件会比起重新创建更加的方便。

生成配置文件

首先运行deformable-detr的训练命令

python tools/train.py configs/deformable_detr/deformable-detr_r50_16xb2-50e_coco.py

可以看到mmdetection文件夹中生成了一个work_dirs子文件夹,deformable-detr_r50_16xb2-50e_coco.py中就是完整的配置文件;

在这里插入图片描述

修改配置文件

把配置文件修改成和我们自己的数据集适配

  • 修改数据集类别数:从80改为27(自己的数据集类别个数)

在这里插入图片描述

  • 修改dataset_type:从CocoDataset改为PlantdocDataset(自己的数据集名称)

在这里插入图片描述

  • 还可以修改学习率:比如数据集很少的话,可以把学习率调得比较小,从而让其能够慢慢的学习到图像的特征。

注册数据集的metainfo

在配置文件中创建一个 metainfo,将自己的 classes(标签类别)和 palette(调色板)写入,并且在 train_dataloader、val_dataloader 和 test_dataloader 里写入;

  • 我的数据集的metainfo:

在这里插入图片描述

metainfo = dict(
    classes=(
        'Tomato Septoria leaf spot',
        'Bell_pepper leaf',
        'Corn rust leaf',
        'Potato leaf late blight',
        'Corn leaf blight',
        'Strawberry leaf',
        'Tomato leaf late blight',
        'Blueberry leaf',
        'Soyabean leaf',
        'Tomato mold leaf',
        'Squash Powdery mildew leaf',
        'Raspberry leaf',
        'Tomato leaf bacterial spot',
        'Apple rust leaf',
        'Peach leaf',
        'Potato leaf early blight',
        'Tomato Early blight leaf',
        'Apple Scab Leaf',
        'Grape leaf',
        'Tomato leaf',
        'Grape leaf black rot',
        'Apple leaf',
        'Corn Gray leaf spot',
        'Bell_pepper leaf spot',
        'Cherry leaf',
        'Tomato leaf mosaic virus',
        'Tomato leaf yellow virus',
    ),
    palette=[
        (
            220,
            20,
            60,
        ),
        (
            119,
            11,
            32,
        ),
        (
            0,
            0,
            142,
        ),
        (
            0,
            0,
            230,
        ),
        (
            106,
            0,
            228,
        ),
        (
            0,
            60,
            100,
        ),
        (
            0,
            80,
            100,
        ),
        (
            0,
            0,
            70,
        ),
        (
            0,
            0,
            192,
        ),
        (
            250,
            170,
            30,
        ),
        (
            100,
            170,
            30,
        ),
        (
            220,
            220,
            0,
        ),
        (
            175,
            116,
            175,
        ),
        (
            250,
            0,
            30,
        ),
        (
            165,
            42,
            42,
        ),
        (
            255,
            77,
            255,
        ),
        (
            0,
            226,
            252,
        ),
        (
            182,
            182,
            255,
        ),
        (
            0,
            82,
            0,
        ),
        (
            120,
            166,
            157,
        ),
        (
            110,
            76,
            0,
        ),
        (
            174,
            57,
            255,
        ),
        (
            199,
            100,
            0,
        ),
        (
            72,
            0,
            118,
        ),
        (
            255,
            179,
            240,
        ),
        (
            0,
            125,
            92,
        ),
        (
            209,
            0,
            151,
        ),
    ])

在train_dataloader、test_dataloader、val_dataloader中都写入;

在这里插入图片描述
在这里插入图片描述

3. 模型训练

此时我们运行work_dirs目录下的配置文件,然后就可以开始训练啦

python tools/train.py work_dirs/deformable-detr_r50_16xb2-50e_coco.py

在这里插入图片描述
可以查看每个epoch的loss、剩余时间等等

  • 8
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在【小白CV】手把手你用YOLOv5训练自己的数据集(从Windows环境配置到模型部署)_梁瑛平的博客-CSDN博客.pdf中提供了详细的指导,可以帮助你学习如何使用YOLOv5训练自己的数据集。该过程包括以下步骤: 1. 数据集制作:准备自己的数据集,并进行标注和处理,生成YOLOv5所需的数据格式。 2. 环境配置:在Windows环境下安装Python环境、PyTorch和其他必要的依赖库。 3. 模型训练使用YOLOv5提供的训练脚本进行模型训练,根据自己的硬件配置修改参数。 4. 模型测试:使用训练好的模型进行测试,评估模型在测试集上的性能。 5. 模型推理:将训练好的模型部署到实际应用中,进行目标检测训练好的模型会保存在yolov5目录下的runs/exp0/weights/last.pt和best.pt文件中,而详细的训练数据保存在runs/exp0/results.txt文件中。 <span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [【小白CV】手把手你用YOLOv5训练自己的数据集(从Windows环境配置到模型部署)_梁瑛平的博客-CSDN博客....](https://download.csdn.net/download/m0_62668782/54189217)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [YOLOv5训练自己的数据集(超详细完整版)](https://blog.csdn.net/demm868/article/details/122076560)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值