jetbot 10 之人脸口罩佩戴检测

疫情推动了AI技术的进步,口罩检测技术更是被很多爱好者和组织玩的百花其放。 开源数据、开源模型非常之多。 如滴滴前不久也公开了他们的人脸口罩模型论文,据说 99.5%准确率。

但我还是忍不住要探究一把,让我的 jetbot 后知后觉地掌握一项技能。开干!

一  橹一把 开源人脸口罩模型FaceMaskDetection

https://github.com/AIZOOTech/FaceMaskDetection

先看下效果:

板子配好 pytorch 环境后可直接运行:

python3 pytorch_infer.py --img-mode 1 --img-path img/demo2.jpg

 

这个模型支持很多推理框架, pytorch, mxnet, keras, caffe, tensorflow 。。。

在我的jetson nano 下 , 实时检测速度如下:

 

注: 每个框架跑的都是 gpu 加速模式

推理框架分辨率速度(fps)
pytorch640x3608
mxnet640x3604.5
keras(基于tf)640x36012
tensorflow640x36020

 

检测视频脚本 (可以验证速度):

进到 FaceMaskDetect 目录,然后分别执行

python3 pytorch_infer.py --img-mode 0 --video-path /workspace/data/360p.mp4

python3 mxnet_infer.py --img-mode 0 --video-path /workspace/data/360p.mp4

python3 keras_infer.py --img-mode 0 --video-path /workspace/data/360p.mp4

python3 tensorflow_infer.py --img-mode 0 --video-path /workspace/data/360p.mp4

如果要验证实时摄像头, 需要换个摄像头采集类, 因为 jetson nano 下 csi 接口对应的是 gstreamer backend ,  例子里是 v4l2 backend .

可以用我包装好的类:

https://github.com/walletiger/jetson_nano_py/blob/master/camera.py

二 使用自己训练的模型:

从工程角度看, 一个合适的 流程 可以分成两阶段, 第一阶段 定位和检测人脸 , 第二阶段 从人脸图像 检测口罩特征。 

本人比较懒,且中了最近 one stage 多分类算法的风, 非要合成一个阶段,   one stage 同时 定位检测 人脸, 戴口罩人脸。

选择了最近比较流行的 yolov5 和 nanodet ,  模型训练完没做任何 tuning  效果整起:

jetson nano 口罩佩戴检测

 

检测速度 yolov5s  640x360@8fps,  nanodet 640x360@15fps

后面在来讲  yolov5 , nanodet 模型训练以及部署使用过程。

https://blog.csdn.net/walletiger/article/details/110733182

https://blog.csdn.net/walletiger/article/details/110733604

转 tensorRT :

https://blog.csdn.net/walletiger/article/details/111027113

 

 

  • 1
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

walletiger

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值