论文题目:Spatiotemporal Multi-Graph Convolution Network for Ride-Hailing Demand Forecasting

论文题目4:Spatiotemporal Multi-Graph Convolution Network for Ride-Hailing Demand Forecasting(用于网约车需求预测的时空多图卷积网络)
期刊及发表年The Thirty-Third AAAI Conference on Artificial Intelligence (AAAI-19);2019年
全部作者Xu Geng, Yaguang Li, Leye Wang, Lingyu Zhang, Qiang Yang, Jieping Ye, Yan Liu
论文贡献(1) 在网约车需求预测中识别出区域间的非欧氏相关性,并提出使用多个图对其进行编码。然后进一步利用提出的多图卷积来显式建模这些相关性。(2) 提出了上下文门递归神经网络(CGRNN),用来在建模时间依赖性时合并全局上下文信息(3) 使用两个大型数据集进行验证,与最先进的网约车需求预测方法比,相对误差降低了10%
研究方法形式化了时空打车需求预测的学习问题,并描述了如何使用提出的时空多图卷积网络(ST-MGCN)建模时空依赖性
所用数据北京和上海2017年5月1日-12月31日网约车订单数据
其他下一步工作:(1)使用其他时空预测任务评估模型;(2)将该方法扩展到多步序列预测上。

说明:论文中名词的解释都来源于网络。

论文需求:

  • 首先,将区域间的非欧式成对相关编码到多图中,然后使用多图卷积对这些相关进行显示建模。
  • 为了在建模时间相关性时利用全局上下文信息,进一步提出了上下文门控递归神经网络(contextual gated recurrent neural network)

论文中涉及到的部分内容:

  1. 网约车需求预测:地区间的复杂时空依赖问题

  2. Euclidean correlations:欧式相关性
    non-Euclidean pair-wise correlations:非欧几里得成对关联

  3. 论文提出了用于网约车需求预测的:时空多图卷积网络(ST-MGCN)

  4. 城市计算:一个城市的人口生态以及生活计算。
    挑战1:如何更加合理有效的感知城市动态,包括人在城市里的移动性、车流、环境和能耗等。这个感知过程既要不影响到人们的正常生活,并考虑到能耗和环保,同时也要有足够大的覆盖范围、实时性和准确性;
    挑战2:如何管理和挖掘大规模的异构数据,如道路和地理数据、视频和图像数据、轨迹数据和文本数据、以及社交网络结构数据等。首先,由于城市计算所涉及的很多应用均有很高的实时性要求(如异常事件预警和交通流量感知等)。虽然数据规模巨大,但这个挖掘过程必须快速高效。再者,一方面的数据往往只能告知我们局部的信息量,融合来自不同数据源的信息才能更深层次地了解事件的根源。例如,通过路面上的传感器我们可以知道某条道路发生了拥堵。通过摄像头获取的视频数据,我们进一步发现这条道路上发生了车祸。再进一步,通过用户发表在微搏上的数据,我们就可能知道车祸的原因、具体责任人和一些更详实的信息。但这些数据具有完全不同的结构和特性,也分别适用于不同的挖掘算法。因此,数据的庞大规模和异构属性将为快速的协同挖掘和深度理解带来很大的挑战性。
    挑战3:如何将获取的知识有效的表达出来,并从中提取能用来做决策的智能。比如城市中人们在不同时间段中的移动规律如何展现,以及如何利用已获悉的交通流量来指导人们的出行;或者,如何从车流和人流中发现城市规划中存在的问题,并如何改进。从知识到智能(尤其是可以帮助我们作决策的智能)的飞跃仍需要相当大的努力。

  5. 智能运输系统(Intelligent Transportation System,ITS)
    智能运输系统的服务领域为:先进的交通管理系统、出行信息服务系统、商用车辆运营系统、电子收费系统、公共交通运营系统、应急管理系统、先进的车辆控制系统。“智能运输系统”实质上就是将先进的信息技术、计算机技术、数据通信技术、传感器技术、电子控制技术、自动控制技术、运筹学、人工智能等学科成果综合运用于交通运输、服务控制和车辆制造,加强了车辆、道路和使用者之间的联系,从而形成一种定时、准确、高效的新型综合运输系统

  6. 图嵌入参考链接:https://www.zhuanzhi.ai/document/7913eba0f04d30040b693dd7238d2601
    图分析任务可以大致抽象为以下四类:
    ( a )节点分类:旨在基于其他标记的节点和网络拓扑来确定节点的标签
    ( b )链接预测:指预测缺失链路或未来可能出现的链路的任务
    ( c )聚类:用于发现相似节点的子集,并将它们分组在一起
    ( d )可视化:有助于深入了解网络结构。

  7. 图嵌入的方法:
    ( 1 )基于因子分解的方法Locally Linear Embedding(LLE),局部线性嵌入假设每个节点都是嵌入空间中相邻节点的线性组合;Laplacian Eigenmaps,拉普拉斯特征映射的目的是在权重 w i j w_ij wij较高时,保持两个节点嵌入后离得很近,也就是说被分割太远的两个相似节点会得到更多的反馈(惩罚);Cauchy graph embedding,拉普拉斯特征映射对嵌入节点之间的距离使用二次方的惩罚函数,因此在保持节点之间的相似性的同时,节点之间的差异性会别破环,柯西图嵌入解决了这个问题,新的目标函数是距离的反函数,因此更加强调相似节点而不是不同的节点;Structure Preserving Embedding(SPE),结构保持嵌入是另一种扩展拉普拉斯特征映射的方法,SPE的目标是精确地重建输入图,嵌入被存储为一个正的半离散核矩阵K,并定义一个连接算法G,该算法用来从K重构出原来的图形;Graph Factorization (GF),图因式分解;GraRep的缺点是可扩展性;HOPE。
    ( 2 )基于随机游走的方法DeepWalk,DeepWalk方法受到word2vec的启发,首先选择某一特定点为起始点,做随机游走得到点的序列,然后将这个得到的序列视为句子,用word2vec来学习,得到该点的表示向量。DeepWalk通过随机游走去可以获图中点的局部上下文信息,因此学到的表示向量反映的是该点在图中的局部结构,两个点在图中共有的邻近点(或者高阶邻近点)越多,则对应的两个向量之间的距离就越短;node2vec,与DeepWalk相似,node2vec通过最大化随机游走得到的序列中的节点出现的概率来保持节点之间的高阶邻近性。与DeepWalk的最大区别在于,node2vec采用有偏随机游走,在广度优先(bfs)和深度优先(dfs)图搜索之间进行权衡,从而产生比DeepWalk更高质量和更多信息量的嵌入;Hierarchical representation learning for networks (HARP),网络层次表示学习引入了一种策略,通过更好的权重初始化来改进解决方案并避免局部最优,为此,HARP通过使用图形粗化聚合层次结构上一层中的节点来创建节点的层次结构。然后,它生成最粗糙的图的嵌入,并用所学到的嵌入初始化精炼图的节点嵌入(层次结构中的一个)。它通过层次结构传播这种嵌入,以获得原始图形的嵌入。因此,可以将HARP与基于随机行走的方法(如DeepWalk和node2vec)结合使用,以获得更好的优化函数解; Walklets,将显式建模与随机游走的思想结合起来;
    ( 3 )基于深度学习的方法Structural deep network embedding (SDNE),结构化深度网络嵌入建议使用深度自动编码器来保持一阶和二阶网络邻近度,模型由两部分组成:无监督和监督。前者包括一个自动编码器,目的是寻找一个可以重构其邻域的节点的嵌入。后者基于拉普拉斯特征映射,当相似顶点在嵌入空间中彼此映射得很远时,该特征映射会受到惩罚;Deep neural networks for learning graph representations (DNGR),学习图表示的深度神经网络结合了随机游走和深度自动编码器。该模型由3部分组成:随机游走、正点互信息(PPMI)计算和叠加去噪自编码器;Graph convolutional networks (GCN),图卷积网络通过在图上定义卷积算子解决由于大型稀疏图导致的计算代价高问题,该模型迭代地聚合了节点的邻域嵌入,并使用在前一次迭代中获得的嵌入及其嵌入的函数来获得新的嵌入;Variational graph auto-encoders (VGAE),变分自编码器采用了图形卷积网络(GCN)编码器和内积译码器。输入是邻接矩阵,它们依赖于GCN来学习节点之间的高阶依赖关系。他们的经验表明,与非概率自编码器相比,使用变分自编码器可以提高性能。

之前都是使用卷积神经网络来处理欧式数据,处理非欧式结构数据使用手动特征工程或者图卷积网络。

时空多图卷积网络将地区之间的非欧式相关关系编码到多个图中。

  1. graph Laplacian,图拉普拉斯:https://kechuang.org/t/84022?page=0&highlight=859356
    散度–>拉普拉斯算子–>拉普拉斯矩阵
    散度分为正负,表示磁场是扩散还是汇聚,磁场穿过曲面表示为通量
    拉普拉斯算子:对于一个函数,拉普拉斯算子实际上衡量了在空间中的每一点处,该函数梯度是倾向于增加还是减少
    拉普拉斯矩阵之所以如此常用,是因为其一大重要性质: 拉普拉斯矩阵的n个特征值 λ 1 , λ 2 , . . . , λ n , λ_1,λ_2,...,λ_n, λ1,λ2,...,λn,都是非负值,且有 0 = λ 1 < = λ 2 < = . . . < = λ n 0=λ_1<=λ_2<=...<=λ_n 0=λ1<=λ2<=...<=λn

  2. contextual information,上下文信息:https://blog.csdn.net/qq_35100381/article/details/64123058
    上下文信息通常被理解为:察觉并能应用能够影响场景和图像中的对象的一些信息或者是全部信息。

总结:

论文思路首先,使用上下文门控递归神经网络集成不同时间的观察从而来考虑全局上下文信息。然后,使用多图卷积捕捉地区之间的不同关联关系类型,最终,使用一个全连接的神经网络将特征转换为预测结果。
在这里插入图片描述
上图为时空多图卷积网络的系统结构。

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值