以下链接是个人关于行为分析(商用级别)所有见解,如有错误欢迎大家指出,我会第一时间纠正。有兴趣的朋友可以加微信:17575010159 相互讨论技术。若是帮助到了你什么,一定要记得点赞!因为这是对我最大的鼓励。文末附带 公 众 号 − \color{blue}{公众号 -} 公众号− 海 量 资 源 。 \color{blue}{ 海量资源}。 海量资源。
前置准备
根据前面的博客:
行为分析(商用级别)01 - 所有资源链接分享:论文,源码,数据集,预训练模型等
下载好 Interaction(UT-Interaction) 人类动作视频数据集,并且按照其中的图示进行摆放。
模型训练
# JN-OpenLib-root表示从本人github下载项目的根目录
cd ${JN-OpenLib-root}
python tools/train.py configs/detection/via3/my_slowfast_kinetics_pretrained_r50_8x8x1_20e_via3_rgb.py --validate
如果模型训练过程中被中断了,想接着训练,执行如下指令
python tools/train.py configs/detection/via3/my_slowfast_kinetics_pretrained_r50_8x8x1_20e_via3_rgb --validate --resume-from work_dirs/my_slowfast_kinetics_pretrained_r50_8x8x1_20e_via3_rgb/latest.pth
本人执行命令之后打印如下:
模型评估
使用本人百度云下载的模型进行评估:
# JN-OpenLib-root表示从本人github下载项目的根目录
cd ${JN-OpenLib-root}
python tools/test.py configs/detection/via3/my_slowfast_kinetics_pretrained_r50_8x8x1_20e_via3_rgb.py ../../Checkpoints/mmaction/my_slowfast_kinetics_pretrained_r50_8x8x1_20e_via3_rgb.pth --eval mAP
使用你本人自己训练出来的模型进行评估
# JN-OpenLib-root表示从本人github下载项目的根目录
cd ${JN-OpenLib-root}
python tools/test.py configs/detection/via3/my_slowfast_kinetics_pretrained_r50_8x8x1_20e_via3_rgb.py work_dirs/my_slowfast_kinetics_pretrained_r50_8x8x1_20e_via3_rgb/latest.pth --eval mAP
本人评估结果打印l类似如下:
demo测试
运行之后如果视频卡住,请不要着急,耐心等待即可
# JN-OpenLib-root表示从本人github下载项目的根目录
# --config 行为分析模型配置文件 --checkpoint 行为分析模型权重文件
# --det-config 行人检测模型配置文件
# --det-checkpoint 行人检测模型权重文件 (其完全兼容mmdetection,如果想要了解可以参考本人之前的博客: https://blog.csdn.net/weixin_43013761/article/details/108368099)
# --camera-id 摄像头id,也可以接入rtsp流,或者视频文件名 # --img-scale 输出图像缩放尺寸
# --det-score-thr 检测行人阈值 --drawing-stepsize 每间隔n帧进行一次行人检测推理
cd ${JN-OpenLib-root}
python mywork/webcam_demo_via3.py --config work_dirs/my_slowfast_kinetics_pretrained_r50_8x8x1_20e_via3_rgb/my_slowfast_kinetics_pretrained_r50_8x8x1_20e_via3_rgb.py --checkpoint work_dirs/my_slowfast_kinetics_pretrained_r50_8x8x1_20e_via3_rgb/latest.pth --det-config ./mywork/faster_rcnn_r50_fpn_2x_coco.py --det-checkpoint ../../Checkpoints/mmdetection/faster_rcnn_r50_fpn_2x_coco_bbox_mAP-0.384_20200504_210434-a5d8aa15.pth --camera-id mywork/seq10.avi --img-scale 0.5 --det-score-thr 0.5 --act-score-thr 0.0 --drawing-stepsize 3
本人显示结果类似如下:
结语
到这里为止,我们已经知道如何去检测视频,摄像头图像的动作,以及对开源数据集进行训练。那么接下来,就是需要学习如何制作,以及训练自己的数据集了( 项 目 落 地 的 核 心 关 键 \color{red}{项目落地的核心关键} 项目落地的核心关键)。