使用官方RT-DETR训练自己的数据集

准备工作:

1.下载官方源码:RT- DETR
2.将自己的数据集转换成coco格式,这个教程很多,自行转换。转换之后的数据集目录是下面这样(和官方coco格式一致):

在这里插入图片描述

训练准备工作:

1.修改数据集路径:
在代码中:/home/root1/data/miya/uav/RT-DETR/rtdetr_pytorch/configs/dataset/coco_detection.yml 中对应位置修改成自己数据集的路径:

在这里插入图片描述
原始coco_detection.yml 文件:
在这里插入图片描述
修改之后:
在这里插入图片描述

2.修改数据的类别:
/home/root1/data/miya/RT-DETR/rtdetr_pytorch/src/data/coco/coco_dataset.py中154行修改成自己的类别:

修改之前的coco_dataset.py:
在这里插入图片描述
修改之后:
在这里插入图片描述

注意:这里如果报错:

在这里插入图片描述

将类别前面的标号从0开始,即可
开始训练
配置环境:
conda create -n rt python=3.8
cd /home/root1/data/miya/RT-DETR/rtdetr_pytorch/
pip install -r requirements.txt
conda activate rt
修改train.py文件:

下载的train.py文件:
在这里插入图片描述
修改之后的:
在这里插入图片描述

开始训练:
CUDA_VISIBLE_DEVICES=2 python tools/train.py

在这里插入图片描述

补充:如果训练的时候提示:Downloading: "https://github.com/lyuwenyu/storage/releases/download/v0.1/ResNet50_vd_pretrained_from_paddle.pth" to /home/root1/.cache/torch/hub/checkpoints/ResNet50_vd_pretrained_from_paddle.pth 这种语句,通常会出现两种情况:1.网速很好,很快在线下载成功,顺利进入上述训练过程 2.网络不好,下载失败。
解决办法:按照上面的路径将其下载到本地,转移到相应的位置。然后运行train.py即可跳过这一步骤,正常训练。
  • 5
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
训练rtdetr模型使用自己的数据集,首先需要收集和准备训练数据。数据集应该包含带有边界框注释的图像,边界框表示物体在图像中的位置和大小。注释的方式可以是XML、JSON等格式。 在收集好数据集之后,需要进行数据预处理。这包括对图像进行裁剪、缩放、去除噪声等操作,以确保图像的质量和一致性。还需要对边界框进行归一化,通常使用坐标偏移和缩放因子来表示边界框的位置。 接下来,需要进行模型训练。可以使用已有的rtdetr模型作为基础,通过迁移学习来进行训练。首先,需要冻结模型的一些底层卷积层,只训练顶层的分类和回归头部。这样可以加速训练,并且有助于模型适应新的数据集。 在训练过程中,使用损失函数来度量预测结果与真实标签之间的差异。常用的损失函数包括交叉熵损失和平滑L1损失。损失函数的选择取决于具体的任务需求。 同时,需要选择合适的优化器和学习率调度器。常用的优化器包括随机梯度下降(SGD)和Adam。学习率调度器可以帮助在训练过程中降低学习率,以更好地优化模型。 在完成模型训练后,可以进行模型评估和调优。通过计算模型在验证集或测试集上的精确度、召回率等指标来评估模型性能,并根据评估结果进行模型调优,如调整超参数、增加训练数据等操作。 最后,当模型达到满意的性能时,可以使用该模型对新的图像进行目标检测。通过将图像输入模型,可以得到预测的边界框和物体类别,从而实现对新图像中物体的检测和识别。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值