《Graph WaveNet for Deep Spatial-Temporal Graph Modeling》论文解读

论文 同时被 3 个专栏收录
3 篇文章 0 订阅
1 篇文章 0 订阅
2 篇文章 0 订阅

基于时空图采用Graph WaveNet建模,其能够有效的处理大范围时间序列的时空图数据。在该模型架构中,主要包括两个模块,分别为GCN和TCN。两个模块融合获取时间空间的依赖关系。

该模型的框架如下:

目录

 

一、本论文的创新点如下:

二、方法:

2.1问题定义:

2.2 图卷积层(GCL)

2.2.1 自适应的邻接矩阵

2.3时间卷积层(TCL)

2.3.1 Gate TCN

2.4 Graph WaveNet的实验


一、本论文的创新点如下:

  1. 构建能够保留其隐含空间关系的自适应邻接矩阵。自适应邻接矩阵在没有先验知识的前提下,从数据中挖掘隐含的图结构。
  2. 提出了同时高效获取时空依赖关系的框架,该框架的核心思想是将扩张因果卷积与图卷积融合,进而每个图卷积层能够处理在不同细粒度下,由扩张因果卷积提取的每个节点信息的空间依赖关系。

二、方法:

2.1问题定义:

图G=(V,E),其中,V为图的节点集合,E为边的集合。邻接矩阵A,如果两点之间有连线,则Aij为1,否则为0。在每一时间步t,图G的动态特征矩阵为Xt。给定图G及其历史步长S的图信号,我们的问题是学习函数f来预测下一T时间步的图信号。该种映射关系如下公式(1)所示:

2.2 图卷积层(GCL)

在给定结构信息下, 利用图卷积来提取节点特征是非常重要的一步。相关的文献中,图卷积层定义方式不同,在【Kipf and Welling, 2017】中,定义如下

其中A为self-loop的正则化邻接矩阵,W为模型参数矩阵,X为输入数据。

【Li et al, 2018b】提出了扩散卷积层来对时空进行建模。当图为有向图和无向图时,其有不同的计算方式。由于时间关系,故在此贴原文。如下图所示:

2.2.1 自适应的邻接矩阵

自适应邻接矩阵,不依赖于先验知识,并通过随机梯度下降来端到端的学习其空间依赖关系。

随机初始化两个节点的embedding字典。本论文提出的自适应邻接矩阵Aadp的定义如下:

其中,E1为源节点的embedding向量,E2为目标节点的embedding向量。通过E1与E2相乘,能够得到两个节点的空间依赖关系的权重。

在本文中,提出了公式6的图卷积层,主要包括有向图的前后关系以及自适应邻接矩阵。

2.3时间卷积层(TCL)

采用扩张因果卷积作为TCN模块,来学习节点的时间趋势。扩张因果卷积通过增加层的深度,能够得到指数级大的感受野。在输入时,扩张因果卷积padding,来保持其时间因果的顺序,以至于当前信息只和历史信息有关。如下图所示:

2.3.1 Gate TCN

门机制在循环神经网络中非常重要,他们能够有效的控制信息流通过时间卷积层。简单的Gated TCN只包含一个输出门。给定输入X,其形式如下:

2.4 Graph WaveNet的实验

采用MAE作为训练目标。

采用的数据集为METR-LA和PEMS-BAY的交通网络数据集,其节点为sensor。

 

 

 

  • 2
    点赞
  • 2
    评论
  • 9
    收藏
  • 一键三连
    一键三连
  • 扫一扫,分享海报

©️2021 CSDN 皮肤主题: 大白 设计师:CSDN官方博客 返回首页
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。

余额充值