跌倒识别-lightweight_openpose

最近做了一个跌倒检测demo,使用的是lightweight_openpose+fullconnection,这篇文章是以应用为主,已经在GitHub上开源啦,
源码openpose_fall_detect


为什么使用lightweight_openpose,在此之前跑了很多模型哈,包括C3D、R3D、R(2+1)D、yolo、alphapose、STGCN、openpose等,以上模型有时间了再和大家分享,综合来说,lightweight_openpose速度快(比以上提到的模型都快),精度也很不错,接下来谈一谈这个项目的模型及怎么实现的。


lightweight_openpose VS openpose
这个轻量级的openpose相比openpose有哪些改进呢,先看看openpose的原始结构在这里插入图片描述
在这里插入图片描述
接下来谈谈对openpose的改进
改进一:backbone:VGG19 to mobilev1
改进二:把生成keypoints和PAFs的两个网络合并成一个
在这里插入图片描述
改进三:把7x7的卷积换成3x3和1x1的卷积块,为保持视野,使用dil=2的空洞卷积
在这里插入图片描述


经过以上改进,速度相比原openpose快了很多,精度和原openpose相差很小

大致知道了如何改进的openpose,理论不多说,接下来谈谈怎么利用lightweight_openpose+fullconnection实现跌倒识别

一、
lightweight_openpose用来识别骨骼
二、
把骨骼图片传入全连接层,全连接层对骨骼进行判断,输出骨骼状态(fall or normal),发现精度还可以进一步提高,就是使用宽高比进行辅助判断,跑出来的效果确实好了很多。

关于lightweight_openpose可以参考其论文Lightweight OpenPose
及其github相关代码

关于全连接层的训练,很简单,首先生成训练集和测试集,直接利用lightweight_openpose生成后保存就好,我已经对源码做了部分修改,在pose.py文件中添加了保存功能,在demo文件调用时可以设置is_save = True
在这里插入图片描述

       # 保存骨骼图片
        if is_save:
            t = time.time()
            t = int(round(t * 1000))
            cv2.imwrite(f'C:/Users/lieweiai/Desktop/human_pose/{t}.jpg',I)
        # **************************************

骨骼生成完后,创建test与train文件夹作为训练集与测试集,在test和train文件夹下创建fall与normal文件夹,把相应的骨骼图片放进去就好,如下图

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
之后训练就可以啦,几个小时就可以训练好
以下附几张效果图
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
为了方便操作,项目中添加了一个简单的GUI操作界面,入口文件为fall_down_detector.py
权重文件下载地址:
链接:https://pan.baidu.com/s/1QB8j7bXsmpEpfc4d3HkUIg
提取码:5d6o
发现之前添加的跳转链接其实是百度网盘链接,不清楚之前为啥直接跳转到CSDN下载,大家直接复制链接下载,全免费

  • 31
    点赞
  • 143
    收藏
    觉得还不错? 一键收藏
  • 70
    评论
轻量级openpose是一个用于人体姿态检测的项目。你可以通过以下步骤来使用它: 1. 首先,你需要从GitHub上下载轻量级openpose项目的代码。你可以在这个链接中找到项目的代码:\[1\]。如果GitHub无法访问,你可以尝试在gitee网站上搜索并下载。 2. 下载checkpoint_iter_370000.pth模型。你可以在这个链接中找到模型的下载地址:\[1\]。密码是jybl。 3. 将下载的代码和模型放入同一个文件夹中。 4. 打开终端(cmd)并进入到代码所在的文件夹。 5. 运行以下命令来启动人体姿态检测。请确保你已经下载了proto和model文件。这些文件是从卡内基·梅隆大学的开源openpose项目中获取的:\[2\]。 ``` python openpose.py --proto F:/openpose/models/pose/coco/pose_deploy_linevec.prototxt --model F:/openpose/models/pose/coco/pose_iter_440000.caffemodel --dataset COCO ``` 6. 如果你想测试一些视频素材,可以运行以下命令: ``` python human-pose/demo.py --checkpoint-path checkpoint_iter_370000.pth --video 5.mp4 ``` 这将显示运行结果的图片。\[2\]\[3\] #### 引用[.reference_title] - *1* *3* [轻量级openpose人体姿态检测](https://blog.csdn.net/liaoqingjian/article/details/116228704)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [轻量级openpose解析](https://blog.csdn.net/qq_41552218/article/details/111411299)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 70
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值