T-GCN(时间图卷积网络) 泛读笔记

T-GCN(时间图卷积网络) 泛读笔记

1.文章概述

1.主要贡献

  • 将图卷积和GRU结合提出了T-GCN网络。图卷积用于捕捉道路网络的拓扑结构,建模空间依赖。GRU用于捕获时间相关性。
  • T-GCN模型在不同时间间隔的预测结果呈现稳态,也就是说在长期预测上性能较好。
  • 在两个数据集上的实验结果与之前的baseline相比有加大提升

2.模型介绍

变量定义

变量定义
G ( V , E ) G(V,E) G(V,E)无权重图
V V V节点
E E E
X N × P X^{N\times P} XN×P特征矩阵
A A A邻阶矩阵

image-20210731102541412

2.1 Spatial Dependence Modeling

使用GCN模型从交通数据中学习空间特征。2层GCN模型可以表示为:

image-20210731110317555

2.2 T emporal Graph Convolutional Network

使用GRU进行时间依赖的捕捉相较于LSTM只有两个门:reset gate,update gate,T-GCN总体看下来就是对GRU网络的输入X进行了图卷积操作提取空间依赖后再输入GRU网络具体公式如下:
image-20210731111637177

2.3 损失函数定义

loss ⁡ = ∥ Y t − Y ^ t ∥ + λ L r e g \operatorname{loss}=\left\|Y_{t}-\widehat{Y}_{t}\right\|+\lambda L_{r e g} loss=YtY t+λLreg

  • 0
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
时空卷积神经网络(Space-Time Graph Convolutional Network,简称ST-GCN)是一种用于处理时空数据的神经网络模型。它主要应用于视频动作识别、姿态估计等任务,能够有效地从连续视频序列中学习时空特征。 ST-GCN的核心思想是将视频序列抽象为时空结构。在时空中,每个节点代表一个视频帧,节点之间的边表示它们之间的时序关联关系。通过构建时空,ST-GCN能够捕捉到视频中相邻帧之间的时序信息。 ST-GCN通过两个关键的操作来处理时空。首先是卷积操作,它通过聚合相邻帧的时序信息来更新每个节点的特征表示。这种卷积操作可以有效地传播并整合时序信息,从而将时空关系编码到节点的特征中。 其次是1D卷积操作,它在每个节点上进行,用于进一步提取节点的时序特征。通过多个1D卷积层的叠加,ST-GCN可以逐渐抽象出更高级别的时序特征。 最后,ST-GCN会将最终的表示传递给分类器进行动作识别或其他任务。分类器可以是全连接层、支持向量机等,用于从抽取的时空特征中预测视频的标签。 总结来说,ST-GCN是一种专门用于处理时空数据的神经网络模型。它通过构建时空,并通过卷积和1D卷积操作来抽取视频序列中的时序特征。ST-GCN在视频动作识别等任务中取得了较好的性能,对于时空关联关系的建模具有较强的能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值