实时视频动作检测(action detection)

视频实时多人姿态估计 cpu fps33+

基于人体姿态的时空动作检测(cpu fps25+)

yolov5 烟雾和火焰检测

【文章用到的云gpu详细使用说明】

    行为检测( action detection) 旨在从长视频中定位出人们感兴趣行为在时间甚至是空间上的具体位置,是最为重要的视频理解任务之一。该技术可以广泛应用于视频监控、视频搜索与检索、自动驾驶、人机交互、视频内容推荐等。

        行为检测任务可以分为时序行为检测( temporal action detection) 和时空行为检测( spatio-temporal action detection) 两类。前者只需要得到行为的类别以及在视频中发生的开始帧和结束帧,而后者还需要定位出与行为相关的目标( 人、物体等) 的空间坐标。

        slowfast论文简介:本论文提出了用于视频识别的SlowFast网络。该模型包含:1)Slow路径,以低帧率运行,用于捕捉空间语义信息;2)Fast路径,以高帧率运行,以较好的时间分辨率捕捉运动。可以通过减少Fast路径的通道容量,使其变得非常轻,同时学习有用的时间信息用于视频识别。该模型在视频动作分类和检测方面性能强大,而且SlowFast概念带来的重大改进是本论文的重要贡献。在没有任何预训练的情况下,本论文在Kinetics数据集上的准确率达到了79.0%,远远超过之前的最佳水平。在AVA动作检测数据集上,我们也达到了28.3 Map,是当前最佳水平。

         ava数据集简介:本文介绍了一种具有时空定位(Spatio-temporally Localized)的原子视觉动作(AVA)视频数据集。这里的原子视觉动作即为谷歌推出的一个新的视频数据库,名称为“原子视觉行为(AVA)。AVA数据集在430个15分钟的视频剪辑中密集地注释了80个动作,动作在空间和时间上进行了定位,标注了1.58万个动作标签,每个人都有多个动作标签出现。

      数据集的关键特征是:

(1)定义原子视觉动作,而不是复合动作;

(2)精确的时空标注,每个人可能有多个标注;

(3)在15分钟的视频剪辑中对这些行为进行详尽的注释;

(4)跨连续段的时间连接人;

(5)利用电影收集各种动作表现形式

     

      本程序可以在免费云gpu上直接调试运行注册地址:

https://gpushare.com/auth/register?user=18*****1785&fromId=c4100216220&source=link

复制链接进入网站注册,如果是手机浏览器要进入桌面网页,网页右下角有个注册礼包按钮点一下,第一项绑定微信,完成后领取20元卷。然后点建立实例,点按量付费,选择能使用代金券的主机,底下选择pytorch pytorch1.9 Python3.8 cud11.1,创建实例后  随便上传一个jupyter文件,运行后还有额外奖励。

本源码的具体注册运行及配置按照zip里面的install.doc的图文教程操作,也可以点这里下载install.doc

安装环境

   

具体按照ipynb,从上往下运行

最后一格是视频的时空动作检测推断

源码的下载地址

实时视频推断效果演示

下载后有问题可以加q 568897492

  • 12
    点赞
  • 224
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 42
    评论
评论 42
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

tf_q568897492

你的鼓励是我最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值