Self-supervised Trajectory Representation Learning with Temporal Regularities and Travel Semantics

Self-supervised Trajectory Representation Learning with Temporal Regularities and Travel Semantics

轨迹表示学习(TRL)是时空数据分析和管理的有力工具。TRL旨在将复杂的原始轨迹转换为低维表示向量,可应用于轨迹分类、聚类、相似度计算等各种下游任务。现有的TRL工作通常将轨迹数据视为普通的序列数据,没有充分挖掘轨迹的时间规律和旅行语义等重要的时空特征。为填补这一空白,本文提出一种新的具有时间规律和旅行语义的自监督轨迹表示学习框架START。该方法分为两个阶段。第一阶段是轨迹模式增强的图注意力网络(TPE-GAT),将路网特征和出行语义转换为路段表示向量;第二阶段是时间感知的轨迹编码器(Time-Aware Trajectory Encoder, TAT-Enc),将同一轨迹中路段的表示向量编码为轨迹表示向量,同时在轨迹表示中融入时间规律。设计了两个自监督任务,即跨度掩码轨迹恢复和轨迹对比学习,将轨迹的时空特性引入到START框架的训练过程中。在两个大规模真实世界数据集上针对三个下游任务进行了广泛的实验,验证了所提方法的有效性。实验还表明,该方法可以在不同城市间迁移,以适应异构轨迹数据集。

 框架结构包括一个轨迹模式增强的图注意层(TPE-GAT)和一个时间感知的轨迹编码器层(TAT-Enc)以及两个自我监督的任务。本文使用图神经网络来捕捉路段特征和路网结构的信息以学习路段的表征。考虑到道路网络是一个有向图,我们选择了图注意网络(GAT)[1],因为它可以通过计算节

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值