序言
前段时间nanodet爆火,以非常小的模型和运算量,取得了超过tiny-yolov4的精度,非常惊艳,因为时间问题一直没有尝试,最近有空决定尝试一下。先来看下作者给的模型效果
一、nanodet安装
首先安装nanodet的环境包:
pip install Cython termcolor numpy tensorboard pycocotools matplotlib pyaml opencv-python tqdm
然后安装nanodet
git clone https://github.com/RangiLyu/nanodet.git
cd nanodet
python setup.py develop
安装结束后测试一下模型有没有问题,下载coco预训练权重密码erbn,然后运行demo查看是否安装成功:
python demo/demo.py image --config CONFIG_PATH --model MODEL_PATH --path IMAGE_PATH
- CONFIG_PATH 是config/nanodet-m.yaml
- MODEL_PATH 是刚才下载的权重
- IMAGE_PATH 是测试图片路径
效果好像还不错,确认没问题后开始准备数据集。
二、准备数据集
这里使用的是自己收集的手势识别数据集,类别总共有6类,分类是:上、下、左、右、拳头、手掌,采用VOC格式标注;
nanodet支持voc和coco两种格式的训练,所以这里直接按照voc格式训练,当然也可以转换为coco格式,转换代码在之前的博文中VOC格式标注转COCO格式。我的数据集目录结构为:
修改配置文件,将config/nanodet_custom_xml_dataset.yml复制一份,另取名为nanodet-m-shoushi.yml,按需修改以下几处:
修改结束后直接运行:
python tools/train.py config/nanodet-m-shoushi.yml
正常运行输出界面:
最后的训练结果,好像还不错:
三、效果展示
本来想上nanodet、yolov5s、yolo-fastest训练的对比的,发现上不了视频。那算了,随机截图几张看下效果图:
- affirm 表示拳头
- start 表示手掌
效果并不是特别理想,置信度比较低,误检和漏检比较严重,使用同样的数据集,用yolo-fastest和yolov5s训练出来的效果要远远好于nanodet,yolov5s就不用说了,和另外两个不是一个量级的,效果自然是要比较好,但是很有趣的现象是,nanodet在测试集上的map精度要比yolo-fastest高很多,但是实际摄像头的测试效果却比yolo-fastest差很多。这是不是可以说明,在一些固定背景下的检测,也许更适合用nanodet,在背景更复杂的场景,yolo-fastest泛化能力可能更强一些。
为什么要和yolo-fastest对比?作为两个压缩到极致的检测算法,还是很有必要对比一下的,感兴趣的可以看这两个优秀算法的介绍,牛逼克拉斯。
Yolo-Fastest:超超超快的开源ARM实时目标检测算法
NanoDet:轻量级(1.8MB)、超快速(移动端97fps)目标检测项目