nanodet训练手势识别模型

序言

前段时间nanodet爆火,以非常小的模型和运算量,取得了超过tiny-yolov4的精度,非常惊艳,因为时间问题一直没有尝试,最近有空决定尝试一下。先来看下作者给的模型效果
在这里插入图片描述
在这里插入图片描述

一、nanodet安装

首先安装nanodet的环境包:

pip install Cython termcolor numpy tensorboard pycocotools matplotlib pyaml opencv-python tqdm

然后安装nanodet

git clone https://github.com/RangiLyu/nanodet.git
cd nanodet
python setup.py develop

安装结束后测试一下模型有没有问题,下载coco预训练权重密码erbn,然后运行demo查看是否安装成功:

python demo/demo.py image --config CONFIG_PATH --model MODEL_PATH --path IMAGE_PATH
  • CONFIG_PATH 是config/nanodet-m.yaml
  • MODEL_PATH 是刚才下载的权重
  • IMAGE_PATH 是测试图片路径

在这里插入图片描述
效果好像还不错,确认没问题后开始准备数据集。

二、准备数据集

这里使用的是自己收集的手势识别数据集,类别总共有6类,分类是:上、下、左、右、拳头、手掌,采用VOC格式标注;
在这里插入图片描述
nanodet支持voc和coco两种格式的训练,所以这里直接按照voc格式训练,当然也可以转换为coco格式,转换代码在之前的博文中VOC格式标注转COCO格式。我的数据集目录结构为:
在这里插入图片描述
修改配置文件,将config/nanodet_custom_xml_dataset.yml复制一份,另取名为nanodet-m-shoushi.yml,按需修改以下几处:
在这里插入图片描述在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
修改结束后直接运行:

python tools/train.py config/nanodet-m-shoushi.yml

正常运行输出界面:
在这里插入图片描述
最后的训练结果,好像还不错:
在这里插入图片描述

三、效果展示

本来想上nanodet、yolov5s、yolo-fastest训练的对比的,发现上不了视频。那算了,随机截图几张看下效果图:

  • affirm 表示拳头
  • start 表示手掌

效果并不是特别理想,置信度比较低,误检和漏检比较严重,使用同样的数据集,用yolo-fastest和yolov5s训练出来的效果要远远好于nanodet,yolov5s就不用说了,和另外两个不是一个量级的,效果自然是要比较好,但是很有趣的现象是,nanodet在测试集上的map精度要比yolo-fastest高很多,但是实际摄像头的测试效果却比yolo-fastest差很多。这是不是可以说明,在一些固定背景下的检测,也许更适合用nanodet,在背景更复杂的场景,yolo-fastest泛化能力可能更强一些。

为什么要和yolo-fastest对比?作为两个压缩到极致的检测算法,还是很有必要对比一下的,感兴趣的可以看这两个优秀算法的介绍,牛逼克拉斯。

Yolo-Fastest:超超超快的开源ARM实时目标检测算法
NanoDet:轻量级(1.8MB)、超快速(移动端97fps)目标检测项目
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 6
    点赞
  • 54
    收藏
    觉得还不错? 一键收藏
  • 18
    评论
评论 18
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值