基于密集轨迹的动作识别

原文:Action Recognition by Dense Trajectories
作者:Heng Wang 等
发表于2011年 CVPR
创新点:
第一次将密集轨迹方法引入到动作识别领域;
提出了一种新的与轨迹描述子。

使用密集轨迹进行动作识别的算法流程:

使用DT方法进行动作识别

不过本文着重讲前三步,即密集采样,轨迹计算以及轨迹描述子的构建,所以按照文章的内容,接下来详细介绍这三个步骤:

密集采样
对多个尺度空间使用密集网格进行采样,作者使用八个尺度空间,每两个尺度空间之间的缩放因子为

1/(2)
;
采样空间示意图如下:
采样空间
按照作者提供的代码,进行采样时是简单地提取每个网格的中心点。
然后按照Shi和Tomasi在1994你那《Good Features to Track》中的判断标准对采集到的特征点进行去留判断:如果此点对应的自相关矩阵的特征值小于某个阈值(作者通过实验设定的硬阈值),就去掉该点。

轨迹提取
对特征点的跟踪形成轨迹,跟踪是在提前光流场中进行的,迭代方程为:

Pt+1=(xt+1,yt+1)=(xt,yt)+(Mω)|(xt,yt)

Pt+1为第t+1帧的特征点,M为中值滤波器
ω
为光流场对应数值。(xt’,yt’)为(xt,yt)的近似位置。为了克服轨迹漂移问题,作者将轨迹长度限制为15帧。在后期,静止的轨迹还会被剔除。
在描述轨迹的形状时,作者使用相对位置移动来表达:
相对轨迹
最后经过归一化的轨迹形状描述子为:
轨迹形状描述子
轨迹描述子
作者沿着轨迹,将轨迹邻域划分成更小的子空间,然后对每个子空间构造HOG(描述静态特征),HOF(像素绝对运动特征),MBH(像素相对运动特征)。其中,MBH是作者借鉴他人的工作,第一次将这个特征用到动作识别的领域。
整体的特征点提取到描述子构建流程图如下:
前期流程
至此,本文章的创新部分已经全部讲完,剩下的就是构建词袋模型,使用支持向量机进行分类,由于使用的都是最一般的方法,所以这里就不介绍了,直接讲他的实验结果:
实验结果

博主的话:

这是我第一次写博客,版式使用还不会,请多指教;另外,如果有用密集轨迹做动作识别的同志,欢迎多多交流。

  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 11
    评论
基于YOLOv5的动作识别是一种利用YOLOv5模型进行实时动作检测和分类的方法。YOLOv5是一种目标检测算法,它能够高效地识别图像或视频中的不同物体,并给出它们的位置和类别。 在动作识别中,首先需要使用YOLOv5模型对视频中的每一帧进行目标检测,获取每个目标的位置信息。然后,可以通过跟踪算法将相邻帧中的同一个目标进行关联,形成一个目标轨迹。 接下来,可以利用目标轨迹来提取动作特征。常用的方法有使用光流场、深度学习等技术来提取动作信息。这些特征可以表示为一个向量,用于描述目标在时间上的演变情况。 最后,可以通过分类算法对动作特征进行分类,来实现动作识别。常用的分类算法有支持向量机(SVM)、决策树等。它们能够根据动作特征的向量进行分类判断,将不同动作进行识别和分类。 基于YOLOv5的动作识别方法具有以下优点:首先,YOLOv5模型具有强大的目标检测能力,能够准确地识别视频中的目标;其次,通过跟踪算法可以将目标轨迹进行关联,从而获取目标在时间上的连续变化信息;最后,通过特征提取和分类算法,能够对目标的动作进行准确分类和识别。 总之,基于YOLOv5的动作识别方法能够实现对视频中目标的实时检测和分类,具有较高的准确性和实用性,可以应用于很多领域,如智能监控、行为分析等。
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值