PA-ResGCN for Skeleton-based Action Recognition论文解读与复现

基于骨架的动作识别:ResGCNResGCN论文解读ResGCN整体框架基于骨架的动作识别相关工作GCNMultiple Input Branches(MIB)ResGCNPart-wise Attention实验参数消融术研究ResGCN代码复现这是ACMMM2020的一篇文章,题目为:Stronger, Faster and More Explainable: A Graph Convolutional Baseline for Skeleton-based Action Recognition原文
摘要由CSDN通过智能技术生成

这是ACMMM2020的一篇文章,题目为:Stronger, Faster and More Explainable: A Graph Convolutional Baseline for Skeleton-based Action Recognition
原文地址
CODE PA-ResGCN
一作 Yi-Fan Song 也曾提出RA-GCN(Richly Activated Graph Convolutional Network)的两个版本,分别发在了IEEE ICIP2019 和 IEEE TCSVT2020.

ResGCN论文解读

ResGCN整体框架

从abstract中我们可以关注到几个点:SOTA;Model;Dataset 我们就这样一步步分析这篇论文的贡献。
首先来看模型的效果吧,
在这里插入图片描述
分别在NTU RGB+D 60 & 120 Dataset 上取得了SOTA成果。可以看到,在高准确率情况下参数也是较少的。作者还给出了高性能模型PA-ResGCN & 轻量模型ResGCN,最后在消融实验中将详细说明。
就Model而言,ResGCN主要由三个部分组成,分别为:MIB(早起融合多输入分支)、ResGCN(残差GCN---->轻量)、PartAtt(发现整个动作序列上最基本的身体部分---->提高可解释性与稳定性)。

基于骨架的动作识别相关工作

首先,骨架数据是多个骨架关节的3D坐标的时间序列,可以通过姿态估计方法从2D图像中估计,也可以通过Kinect等多模态传感器直接收集。
基于骨架的动作识别主要可以分为两个阶段。一、早期,传统的方法是采用递归神经网络RNNs或基于CNNs的模型来分析骨架序列。例如使用分层双向RNN来捕获不同身体部位之间的丰富依赖关系;一种简单有效的CNN架构用于修剪骨架序列的动作分类;虽然CNN模型轻量,但这一类模型性能较差。二、近年来,由于描述结构数据的极大表达能力,提出了基于图形的模型进行动态骨架建模。最早的一篇可以追溯到2018年提出的ST-GCN(the Spatial Temporal Graph Convolutional Networks)。基于图卷积的相关文章在上一篇文章中有归纳过,可见基于骨架的动作识别----论文总结,这次主要是复现了这一篇ResGCN的文章。
针对现有模型的高复杂度问题,
作者主要采取了三种方式来解决这些问题:Multiple Input Branches(MIB)、Residual GCN(ResGCN)、Part-wise Attention(PartAtt)。首先,提出了早期融合多输入分支(MIB)架构,从骨架数据中获取丰富的空间配置和时间动态,其中三个分支分别包括关节位置(相对和绝对)、骨骼特征(长度和角度)和运动速度(一个或两个时间步骤),随后在整个模型的早期阶段进行融合,以降低模型的复杂性;其

  • 3
    点赞
  • 31
    收藏
    觉得还不错? 一键收藏
  • 16
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 16
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值