AAAI 2025 | 告别静态建模!北航团队提出动态路网与轨迹表示的协同学习范式

论文标题:

Bridging Traffic State and Trajectory for Dynamic Road Network and Trajectory Representation Learning

论文链接:

https://arxiv.org/abs/2502.06870

代码链接:

https://github.com/NickHan-cs/TRACK

现存问题与研究动机

当前大多数路网和轨迹表示学习方法主要侧重于从静态的路网结构和固定的路段特征中提取表示,而未能捕捉实际交通中的时空动态特性。具体来说,现有方法:

  • 对路段的表示学习大多基于固定的静态属性(如长度、速度限制等)及局部结构信息,缺乏对交通状态(如交通流、密度、平均速度)随时间变化的建模;

  • 在轨迹建模中,虽然有的方法对时间信息进行一定的编码,但通常仅考虑轨迹自身的时序特征,而忽略了轨迹所经过路段的动态交通状态;

  • 独立建模交通状态数据(宏观群体特征)与轨迹数据(微观个体特征),缺乏对二者的联合建模。

▲ 图1. 交通状态数据和轨迹数据之间相互影响

交通状态数据和轨迹数据之间存在时空相关性和相互影响。首先,交通状态会影响个体对轨迹路线的选择,如图 1(a) 所示,在非高峰时段,人们倾向于选择最短路线  ,但在高峰时段,绕行路线   可能是一个更省时的选择。

其次,个体在道路网络上的转移是交通状态变化的直接原因,如图 1(b) 所示,C 路段的交通流量由来自 A 路段的交通流量和来自 B 路段的交通流量组成。因此,从 A 路段到 C 路段的转移概率在不同时间段内变化,直接影响 C 路段的交通状态。

因此,本文提出 TRACK 模型,打破传统将交通状态和轨迹数据分开处理的局限,提出一种联合建模的方法。通过同时利用两种数据,更全面地捕捉路网的动态变化,从而为下游任务(如交通流预测、旅行时间估计等)提供更准确的表示。

符号定义

定义1 路段

路段   是城市交通场景中的最小空间单元,其中   是路段的集合。

定义2 时间片

时间片   是城市交通场景中的最小时间单位(例如一小时)。

定义3 路网

道路网络被描述为一个图  ,其中是   路段的节点集,  是邻接矩阵,用于描述   条路段之间的连接信息。路网包含道路路段的空间特征。

定义4 路段的静态特征

路段   的静态特征   是一个特征向量,通常在建造后不会随着时间的推移而变化,  是特征向量的维度。并使用   表示路网中   条路段的静态特征。

定义5 交通状态序列

交通状态序列   由   个连续的历史交通状态组成,其中,  表示时间片   的交通状态(例如:流量、密度、平均速度),  是数据维度。

定义6 轨迹

轨迹   是记录汽车或人在路网范围内移动的一系列时空点,其中是   时空点的总数,表示   第次访问   的路段,  表示对应的时间戳。假设在时间片   内有一组轨迹,  每条轨迹   的出发时间戳位于时间片   内。

方法

▲ 图2. TRACK的整体架构

TRACK 通过动态联合建模交通状态与轨迹数据,设计以下核心模块:

1. 轨迹表示学习

静态特征编码:使用图注意力网络(GAT)编码路段静态属性(长度、类型)与空间拓扑结构:

其中,  表示标准化 GAT 或使用稀疏矩阵运算优化的 GAT 网络,路   网中条路   段的表示。

时间戳编码:引入了一个时间嵌入层,将轨迹中的原始时间戳转换为低维表示向量  ,分别表示每周周期模式、每日周期模式、位置信息和时间间隔信息。

轨迹表征:对于轨迹中第   次访问的路段  ,首先通过 GAT 得到路段表示  ,并通过如下方式结合时间戳表示,得到总体表示 

为捕获轨迹的远程依赖关系并识别轨迹的全局语义,进一步将表示序列   输入到 Transformer 编码器获得最终轨迹表示 

其中函数   表示 Transformer 编码器,  是占位符的嵌入向量,表示轨迹整体表示。

掩码轨迹预测(MTP)任务:掩盖轨迹的连续子段及其对应的时间戳,并使用解码器来恢复掩码值,损失函数可定义为:

其中   和   分别表示被遮掩的路段和时间戳的集合。

对比轨迹学习(CTL)任务:采用对比学习策略,从不同视角中生成多个轨迹的样本,并拉近语义相似样本在表示空间中的距离,同时推远语义不同的样本。

该任务的核心在于如何构建和锚轨迹具有相似语义的正例轨迹。本工作使用了两种针对轨迹的数据增强策略:

1. 轨迹裁剪:该策略通过在轨迹的开始或结束部分裁剪一小段子轨迹生成正例轨迹。该策略的出发点在于仅在开始或结束部分有轻微差异的轨迹的出行语义是相似的。

2. 时间扰动:该策略随机选择部分路段的访问时间戳进行扰动,因为交通场景具有较大的不确定性,该策略可以使轨迹表示向量对于时间的轻微扰动是稳健的。

损失函数可定义如下:

其中,  表示批次大小;  是一组正样本对;  是一个指示函数,当   时取1;  是一个温度参数。

2. 交通状态表示学习

动态空间特征编码:为结合轨迹数据中包含的动态信息,本文引入了一个轨迹转移感知 GAT(Trajectory Transition-aware GAT)。具体来说,本文基于历史轨迹数据统计在时间片  ,路段   到   的转移概率  ,并引入到 GAT 的注意力分数计算中:

其中   以及   均表示可学习参数,  表示路段   的邻居集合。

交通数据编码:将时间片   处的交通状态序列   转换为嵌入张量,并结合   个时间片的每周周期模式  、每日周期模式   和位置信息  ,以及经过轨迹转移感知 GAT 得到的路网表示  ,计算得到最终编码向量 

交通状态表征:将   进一步输入到时空 Transformer 编码器中,捕获交通序列的动态时空依赖关系。时空 Transformer 编码器由多个时空 Transformer 编码器层组成。

在每个编码器层中,首先将   分别输入到空间编码器(GAT)和时间编码器(自注意力)。之后,连接空间和时间编码器的输出嵌入,输入到其他组件中。最后,使用一个卷积层将中间表示   转换为路网表示:

掩码状态预测(MSP)任务:随机将交通状态序列中一段连续交通流数据掩蔽为 0,解码器利用潜在表示和掩码词元来重构被掩蔽的交通流数据。损失函数定义为:

其中   是路段   的历史交通流序列中被掩蔽的交通流子序列的时间段集合。

下一状态预测(NSP)任务:掩码状态预测任务重点在于训练路网从时间段   到时间段   的中间表示,帮助模型捕捉到历史时间段交通流数据中更丰富的语义信息。而交通流预测任务是使用基于路网表示   去预测下一时间段的交通流数据。

以训   练模型得到更准确的表示。相应的损失函数定义为:

3. 多视角交互建模

▲ 图3. 协同注意力架构以及从轨迹数据视角的GAT操作

协同注意力机制:设计基于“引力”的 GAT 层,跨视角聚合交通状态与轨迹特征,增强路段动态表示。以轨迹数据视角为例,定义路段   在   分钟可达邻域集  ,令   表示路段在   时间片   的轨迹表示向量,则   和   间的归一化注意力权重   表示为:

其中,  和   是可学习参数,函数   表示地理距离抑制函数。

轨迹-交通状态匹配任务:为对齐轨迹表示与对应交通状态表示,最大化跨视角一致性,本文设计了一个对比学习任务。

对于轨迹  ,其轨迹表示为  ,对应的   条路段表示为  ,其中   从路网表示  中提取。最后通过对   的第一维进行平均池化得到最终表示向量 

在对比学习过程中,时间片长度设置为 ,对于每条轨迹 ,将 视为一个正样本对,并相应地从其他时间片 提取路段表示 ,并构造负样本对 。最终损失函数可以定义为:

模型联合预训练:为跨多源数据学习时空模式,本文以联合方式对所提出模型的所有模块进行预训练,整体损失函数如下:

实验结果

4.1 主要实验结果

▲ 表1. TRACK下游任务效果

本文在多步交通状态预测(MSTSP)和旅行时间估计(TTE)两个下游任务上分别与交通状态预测方法和轨迹表示学习方法进行比较。结果显示 TRACK 均优于其他基线方法,说明 TRACK 提供了准确的表示。

4.2 消融实验结果

▲ 表2. 消融实验结果

论文设计了多种消融变体,包括:

  • 去除交通状态建模模块(w/o Traf)

  • 去除轨迹建模模块(w/o Traj)

  • 去除轨迹-交通状态匹配任务(w/o Match)

  • 去除MTP任务中对时间和路段的mask预测(w/o TMask、w/o SMask)

  • 去除对比学习任务(w/o Contra) 

实验结果表明,模型关键模块以及设计的自监督任务均对最终性能有正向贡献。

总结

TRACK 框架首次将交通状态数据与轨迹数据进行联合建模,通过设计一个多模块联合预训练框架,实现了动态路网和轨迹表示的联合学习,充分利用了交通状态与轨迹数据之间的互补信息,有效突破了传统静态表示学习方法的局限。

引用

如果你觉得本文有用的话,请引用:

@article{han2025bridging,
 title={Bridging Traffic State and Trajectory for Dynamic Road Network and Trajectory Representation Learning},
 author={Han, Chengkai and Wang, Jingyuan and Wang, Yongyao and Yu, Xie and Lin, Hao and Li, Chao and Wu, Junjie},
 journal={arXiv preprint arXiv:2502.06870},
 year={2025}
}

本文实验过程使用到了 LibCity 城市时空预测深度学习算法库。如果你对 LibCity 感兴趣的话,可以访问 Github 主页:

https://github.com/LibCity/Bigscity-LibCity

更多阅读

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

·

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值