DDGCN: A Dynamic Directed Graph Convolutional Network for Action Recognition
作者 | Matthew Korban, Xin Li
单位 | 路易斯安那州立大学
论文地址 | https://www.ecva.net/papers/eccv_2020/papers_ECCV/papers/123650749.pdf
会议 | ECCV 2020
摘要
提出了一种动态有向图卷积网络(DDGCN),从人体行为的骨架表示出发,对人体行为的时空特征进行建模
DDGCN由三个新的特征建模模块组成:
- 动态卷积采样(DCS)
- 动态卷积权重(DCW)
- 有向图时空(DGST)特征提取
DCS和DCW模块可以有效地捕捉动态的非相邻关节之间的时空相关性
DSTG特征提取模块,通过包含时空的有序信息来增强动作的特征
网络架构
动态卷积采样(DCS)
人体非相邻的子部分在人类行为中往往是相互关联的,且这种关联是动态的
DCS算法可以总结如下
-
按照骨架模板初始化静态图 G S G_S GS,并相应地初始化所有节点的索引
-
初始化邻居采样:对于∀vi∈GS,分两步创建其初始有序近邻集合pi(B(Vi))
- 创建包括图中所有其他节点的有序节点集合Oi,该有序节点集合Oi包括根据图到vi的图距离排序的图中的所有其他节点。 当两个节点Vj和Vr具有相同的图距离(例如,都离Vi有r跳距离)时,则根据它们的初始化索引对它们进行排序
- 给定核大小r,从Oi中选取前r个节点,这些节点在此步骤pi(B(Vi))中形成有序的邻集
-
更新采样邻域:∀vi,通过学习减少识别损失的最优偏移量∆pi来更新索引偏移量和邻域采样
最后,在
G
S
T
G_{ST}
GST上,通过如下公式(1)的图形卷积计算特征图
f
S
T
f_{ST}
fST
f
S
T
(
v
i
)
=
∑
v
j
∈
B
(
v
i
)
w
(
v
i
)
⋅
(
p
i
(
v
j
)
+
Δ
p
i
(
v
j
)
)
f_{S T}\left(v_{i}\right)=\sum_{v_{j} \in B\left(v_{i}\right)} w\left(v_{i}\right) \cdot\left(p_{i}\left(v_{j}\right)+\Delta p_{i}\left(v_{j}\right)\right)
fST(vi)=vj∈B(vi)∑w(vi)⋅(pi(vj)+Δpi(vj))
其中i和j分别是中心采样节点和相邻采样节点的索引,B是动态相邻采样节点集合,w是动态权重函数,pi是动态相邻采样函数,∆pi是偏移采样函数
动态卷积权重(DCW)
DCW权重分配模块动态地将权重 w i w_i wi分配给 v i v_i vi的相邻节点
使用动态时间规整(DTW)算法来计算 P v = D T W p a t h ( W , B ( v ) ) P_v=DTW_{path} (W,B(v)) Pv=DTWpath(W,B(v))
P v P_v Pv中的第一列定义了W中元素的排序索引,第二列表示所选元素及其在 B ( V ) B(V) B(V)中的顺序
有向时空图(DSTG)特征
骨骼特征 f i B = f i − 1 f i ‾ = f i − 1 − f i f_{i}^{B}=\overline{f_{i-1} f_{i}}=f_{i-1}-f_{i} fiB=fi−1fi=fi−1−fi
时间特征 f i T = f i t − f i t − 1 f_{i}^{T}=f_{i}^{t}-f_{i}^{t-1} fiT=fit−fit−1
串联得到节点v_i的特征向量 F i = { f i J , f i B , f i T } F_{i}=\left\{f_{i}^{J}, f_{i}^{B}, f_{i}^{T}\right\} Fi={fiJ,fiB,fiT}
实验
在NTURGB-D 60和Kinetics数据集上性能均优于其他方法
消融实验
DSTG模块对于性能提升最大,完整的DDC模块可得到最高的准确率
识别不完整的动作
对丢失帧的动作识别进行的实验,分为以下3中情况
-
运动开始时丢失帧
-
运动结束时丢失帧
-
序列中随机丢失的帧
结论是运动开始时的序列存在大部分特征
总结
提出了一种基于骨架图的动态有向图卷积网络(DDGCN)动作识别算法
DDGCN由三个新模块组成,动态卷积抽样(DCS)、动态卷积权重分配(DCW)和有向图时空(DGST)特征提取
这些新模块有助于更好地捕捉时空依赖关系,骨架的层次结构和时序特征。 实验表明,DDGCN在多个公共数据集上的动作识别准确率优于最先进的算法