文章目录
参考链接
- 官方代码:DAMO-YOLO
- DAMO-YOLO最强操作教程.我的这博文不算很详细,可以去看看这篇博文的视频链接。但我的博文也就是少了配置虚拟环境的步骤,其实如果已经配置好了YOLO相关的虚拟环境,跟着我来应该是能跑通的
1 准备数据
1.1 转为COCO格式
1.2 指明数据路径
在damo/config/paths_catalog.py
进行修改
2 设置训练配置文件,在configs/damoyolo_tinynasL25_S.py进行如下两块修改
在configs/damoyolo_tinynasL25_S.py
进行如下两块修改
2.1 关于训练参数的设置
右侧的base.py在damo/config/base.py
self.train.batch_size = 2 # 训练时的batchsize
self.train.total_epochs = 300 # 训练的总轮数
# self.train.finetune_path = '' # 如果要加上预训练权重,就下载了然后指明位置
self.test.batch_size = 4 # 是训练时候的2倍,但是我在想在训练完之后进行测试时,是不是应该改为1
self.miscs.num_workers = 0 # windows下设置为0
self.miscs.output_dir = './workdirs' # 训练完后保存的目录
self.miscs.exp_name = 'DAMO-YOLOs' # 自定义文件名
2.2 根据自己数据集设置
3 开始训练
python -m torch.distributed.launch --nproc_per_node=1 tools/train.py -f configs/damoyolo_tinynasL25_S.py
- 可以像下图一样,直接设置好配置文件的
绝对路径
,肯定不会出现找不到配置文件的错误
- 这个
-m torch.distributed.launch --nproc_per_node=1
是用来设置多卡训练的,必须要带上才能正常运行起来,因此我在调试的时候多有不便,亲测这个博客很有用,如果有需要可以参考:Pycharm 调试debug torch.distributed.launch- 兴许这个博客也能有用,暂存一下:DAMOYOLO windows 单卡训练
4 调用tools/eval.py进行测试
官方示例:
python -m torch.distributed.launch --nproc_per_node=1 tools/eval.py -f configs/damoyolo_tinynasL25_S.py --ckpt /path/to/your/damoyolo_tinynasL25_S.pth
- 感觉DAMO-YOLO跟YOLOX的代码很像,所以在
eval.py
中还设置了--conf 0.001 --nms 0.5 --tsize 640
,另外,验证时batchsize应该设置为1,因此在configs/damoyolo_tinynasL25_S.py
中设置self.test.batch_size = 1
(但是测试完之后,就改回为self.train.batch_size的两倍吧)
- 直接按照上面命令运行的话,是会对val数据集进行验证,所以如果需要对test数据集进行验证的话,就按照下图在
damo/config/paths_catalog.py
里进行更改
5 训练时可能遇到的报错
5.1 RuntimeError: Distributed package doesn’t have NCCL built in
解决方法:会出现这个错,是因为在Windows
上跑的,那么只要在tools/train.py
中定位到backend='nccl'
,然后把nccl
改为gloo
即可
5.2 ModuleNotFoundError: No module named ‘damo.base_models.core’
解决方法:会出现这报错,是因为程序没有根据找到damo
包的位置,其实就是代码写得有点奇怪然后没有找到路径。只要把tools/train.py
复制到根目录
下,然后运行就可以了