DETR训练自己的数据集

1. 数据集准备

新建一个VOC2007文件夹,文件存放方式如下,其中annotations中存放.json格式的标签

2. 环境配置

(1)直接pip install -r requirements.txt

不报错,安装成功,报错见(2)

(2)分别安装requirements.txt里所需要的包

其中标红的两个,安装方式:

(1)安装pycocotools
git clone https://github.com/cocodataset/cocoapi.git
cd cocoapi
cd PythonAPI
pip install -e.

(2)安装panopticapi

git clone https://github.com/cocodataset/panopticapi.git
cd panopticapi
pip install -e.

3.预训练权重的获取

新建一个change_class_num.py的文件,代码如下:

import torch
pretrained_weights=torch.load('./detr-r50-e632da11.pth')
num_classes=4+1 # 类别数+1
pretrained_weights["model"]["class_embed.weight"].resize_(num_classes+1,256)
pretrained_weights["model"]["class_embed.bias"].resize_(num_classes+1)
torch.save(pretrained_weights,"detr_r50_%d.path"%num_classes)

运行change_class_num.py,得到一个与训练权重detr-r50_5.pth

4. 修改模型的参数

修改models/detr.py文件,build()函数中,可以将红框部分的代码都注释掉,直接设置num_classes为自己的类别数+1

5. 训练

修改main.py

根据自己的需要修改lr,epoch等

修改数据集的路径,根据自己存放的数据集路径写

设置输出路径,我自己建了个output的文件夹,写的就是文件夹的路径,修改default的值

在dataset parameters中找到修改resume为自己的预训练权重文件路径

6. 运行main.py

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值