利用swin-transformer训练自己的数据集

环境:服务器cuda10.2

1.创建虚拟环境,安装pytorch和torchvision

conda create -n openmmlab_XXX python=3.7 -y
conda activate openmmlab_XXX
conda install pytorch==1.6.0 torchvision==0.7.0 cudatoolkit=10.2 -c pytorch

2.安装mmcv

pip install mmcv-full -f https://download.openmmlab.com/mmcv/dist/cu102/torch1.6.0/index.html #安装和自己cuda等版本匹配的
# install mmdetection
git clone https://github.com/open-mmlab/mmdetection.git
cd mmdetection
pip install -r requirements/build.txt
pip install -v -e 

3.准备coco数据集(train/val/annotations)

数据集路径如下:

​​​​​​​

因为github上coco的命名格式,所以我把自己的数据集名称也改成这个。

4.修改对应的配置文件

修改mmdetection/mmdet/core/evaluation下的class_names.py文件修改成你自己的类别标签

修改mmdetection/mmdet/datasets下的coco.py文件 

 但当时修改完之后遇到了这个问题The `num_classes` (80) in Shared2FCBBoxHead of MMDataParallel does not match the length of `CLASSES` 20) in RepeatDataset 重新编译代码(运行python setup.py install)且修改了envs下的文件后仍然报错,最后参考一篇博文评论的回答成功解决特此记录,修改了/mmdetection/configs/_base_/models

下的mask_rcnn_r50_fpn.py文件中的num_classes=1后成功。

还遇到了ValueError: need at least one array to concatenate这个问题,修改了标注json文件中的标签名后解决。

5.训练

OMP_NUM_THREADS=1 python tools/train.py configs/swin/mask_rcnn_swin-t-p4-w7_fpn_fp16_ms-crop-3x_coco.py

注意⚠️ 训练时查看checkpoints保存位置

6.测试

python tools/test.py configs/swin/mask_rcnn_swin-t-p4-w7_fpn_fp16_ms-crop-3x_coco.py work_dirs/mask_rcnn_swin-t-p4-w7_fpn_fp16_ms-crop-3x_coco/latest.pth --show-dir output/

会在文件下生成测试结果

7.绘制训练时的分类和回归损失,并将该图保存为pdf

python tools/analysis_tools/analyze_logs.py plot_curve work_dirs/mask_rcnn_swin-t-p4-w7_fpn_fp16_ms-crop-3x_coco/20220307_121040.log.json --keys loss_cls loss_bbox --out losses.pdf

后续尝试了在cpu环境下训练,出现这个错误RuntimeError: "slow_conv2d_cpu" not implemented for 'Half',修改了iou2d_calculator下的x = (x / scale).half()

return x.float().clamp(min, max).half()将half改成float然后更换训练权重文件后成功。

  • 2
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
Transformer在许多NLP(自然语言处理)任务中取得了最先进的成果。 ViT (Vision Transformer)是Transformer应用于CV(计算机视觉)领域里程碑式的工作,后面发展出更多的变体,如Swin Transformer。 ViT (Vision Transformer)模型发表于论文An Image is Worth 16X16 Words: Transformer For Image Recognition At Scale,使用纯Transformer进行图像分类。ViT在JFT-300M数据集上预训练后,可超过卷积神经网络ResNet的性能,并且所用的训练计算资源可更少。 本课程对ViT的原理与PyTorch实现代码进行精讲,来帮助大家掌握其详细原理和具体实现。其中代码实现包含两种代码实现方式,一种是采用timm库,另一种是采用einops/einsum。  原理精讲部分包括:Transformer的架构概述、Transformer的Encoder 、Transformer的Decoder、ViT架构概述、ViT模型详解、ViT性能及分析。  代码精讲部分使用Jupyter Notebook对ViT的PyTorch代码进行逐行解读,包括:安装PyTorch、ViT的timm库实现代码解读、 einops/einsum 、ViT的einops/einsum实现代码解读。相关课程: 《Transformer原理与代码精讲(PyTorch)》https://edu.csdn.net/course/detail/36697《Transformer原理与代码精讲(TensorFlow)》https://edu.csdn.net/course/detail/36699《ViT(Vision Transformer)原理与代码精讲》https://edu.csdn.net/course/detail/36719《DETR原理与代码精讲》https://edu.csdn.net/course/detail/36768《Swin Transformer实战目标检测:训练自己的数据集》https://edu.csdn.net/course/detail/36585《Swin Transformer实战实例分割:训练自己的数据集》https://edu.csdn.net/course/detail/36586 《Swin Transformer原理与代码精讲》 https://download.csdn.net/course/detail/37045 

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值