DetectorNet: Transformer-enhanced Spatial Temporal Graph Neural Network for Traffic Prediction

DetectorNet: Transformer-enhanced Spatial Temporal Graph Neural Network for Traffic Prediction

具有高覆盖率的探测器为道路使用者在路线规划和避免交通拥堵方面带来直接和深远的好处,但利用这些数据提出了独特的挑战,包括:由道路条件变化引起的动态时间相关性和动态空间相关性。虽然现有的工作考虑了具有时空相关性的建模意义,但所学到的仍然是静态的路网结构,不能反映道路的动态变化,最终失去了很多有价值的潜在信息。为了解决这些挑战,我们提出了由Transformer增强的DetectorNet。与以往研究不同的是,我们的模型包含多视角时间注意模块和动态注意模块,分别关注长距离和短距离时间相关和动态空间相关,通过动态更新学习到的知识,从而进行准确的预测。另外,在两个公开数据集上的实验结果和四个烧蚀实验的比较结果表明,DetectorNet的性能优于11个先进基线。

背景:当前得到的时空建模都是存在静态性的,没有体现出动态的网络变化过程。

问题:

将城市检测器网络看作是由𝐺=(𝑉,𝐸),其中𝑉是检测器节点的集合,𝐸是边的集合

框架:

我们将𝑙-th层的输入

分为三个视图,即短距离视图、中距离视图和远距离视图(short-distance view,medium-distance view and long-distance view)

1)Multi-view Self Attention

   在每个视图中,特征在每个时间成对交互。为了便于具体描述,我们以短距离观为例。

然后,我们将时间attention与该值进行加权,得到一个新的特征表示的短距离视图

Global Temporal Attention

我们采用自我注意机制来模拟所有时间步骤的相关性。

然后,我们使用scaled dot-product 来模拟时间步长的两两交互,得到全局时间注意矩阵

Fusion

在这一部分中,我们合并了多个视图和全局时间特征。MTA给出了三种视图(如短距离视图)的时间信息。通过拼接操作,我们得到如下结果

考虑残差连接得到最终输出

Dynamic Spatial Graph Convolution Network

我们利用学习到的动态空间结构对基于扩散GCN的过程进行改进,从而捕获动态空间关系。这个新模块也被称为动态空间GCN (DSGCN)。

我们最终利用FFN来增强Dynamic GCN的表达能力

实验

两个公共开源的交通数据集,其统计数据如表:

实验结果

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值