论文速读
文章平均质量分 91
论文精华总结,快速过论文专栏
发呆哥o_o ....
先想变成怎样,然后怎样去做
展开
-
车流量估算OD矩阵CGAME:Cyclic Graph Attentive Match Encoder (cgame) A Novel Neural Network For OD Estimation
论文地址:https://arxiv.org/abs/2111.14625 将多区间交通流量视为时空输入,将OD(original destination)矩阵视为异构图结构输出。原创 2024-02-03 16:58:14 · 1326 阅读 · 0 评论 -
交通流量预测STFGNN:Spatial-Temporal Fusion Graph Neural Networks for Traffic Flow Forecas
网络中的每个节点通过与ASTFG的多次矩阵相乘,可以聚合来自ASG的空间相关性、来自ATG的时间模式相关性以及来自ATC的自身最近相关长时间轴。角上的 ATG 增强来自具有相似时间模式的节点的信息。空间图 ASG 由数据集给出,时序图 ATG 由 Alg.1 生成的时序图 ATG,以及时序连接图 ATC,如果上一个时间步骤和下一个时间步骤是同一个节点,则 ATC 的元素为非零。该融合图包含了每个节点与其(1)空间相邻节点、(2)具有相似时间模式的节点以及(3)在时间轴上具有先验或后继情况的节点的关联信息。原创 2024-01-17 13:16:13 · 1214 阅读 · 0 评论 -
交通流量预测:T-GCN A Temporal Graph Convolutional Network for Traffic Prediction
为了同时捕捉时空相关性,将图卷积网络(GCN)和门控递归单元(GRU)相结合,提出了一种新的基于神经网络的流量预测方法–时态图卷积网络(T-GCN)模型。具体地,GCN用于学习复杂的拓扑结构以捕获空间相关性,而门控递归单元用于学习交通数据的动态变化以捕获时间相关性。G = (V, E) 邻接矩阵A(1表示两个路有连接,反之没有),把路当作结点,N是结点的数量XN×PX^{N×P}XN×P特征矩阵,P是结点特征的数量,也就是历史时间序列的长度Xt∈RN×iXt∈RN。原创 2024-01-16 22:38:21 · 1001 阅读 · 0 评论 -
深度强化学习车辆重定向HMDRL: Hierarchical Mixed Deep Reinforcement Learning to Balance Vehicle Supply andDemand
车辆供需不平衡影响叫车系统效率抬高价格会降低乘客的打车需求,订单调度只注重将订单与附近的车辆匹配,车辆在定位适合平衡跨区域供需。闲置车辆对未来交通产生影响,从排序决策的角度考虑车辆重定位。深度强化学习是什么?Actor 基于概率分布选择行为, Critic 基于 Actor 生成的行为评判得分, Actor 再根据 Critic 的评分修改选行为的概率。深度强化学习结合了DL特征提取和RL的决策能力深度强化学习分为基于值函数、基于策略梯度和AC算法。原创 2024-01-16 22:35:44 · 966 阅读 · 0 评论 -
交通流量预测HSTGCNT:Hierarchical Spatio–Temporal Graph Convolutional
图卷积网络(GCN)具有图形化描述道路网络不规则拓扑结构的能力,已被应用于交通流预测任务中。然而,基于GCN的交通流预测方法往往无法同时捕捉到交通流数据所承载的短期和长期时间关系,并且还存在过平滑问题。为了克服这些问题,我们提出了一个分层的交通流预测网络合并新设计的长期时间Transformer网络(LTT)和时空图卷积网络(STGC)。具体而言,LTT旨在学习交通流数据之间的长期时间关系,而STGC模块旨在通过一维卷积和图卷积之间的级联分别捕获交通流数据之间的短期时间关系和空间关系。原创 2024-01-16 22:32:38 · 1353 阅读 · 0 评论 -
深度强化学习的变道策略:Harmonious Lane Changing via Deep Reinforcement Learning
多智能体强化学习的换道策略,不同的智能体在每一轮学习后交换策略,达到零和博弈。和谐驾驶仅依赖于单个车辆有限的感知结果来平衡整体和个体效率,奖励机制结合个人效率和整体效率的和谐。自动驾驶不能过分要求速度性能,考虑单个车辆的厌恶和所在路段的整体交通效率的奖励函数,适当的混合以提高整体的交通效率。章节安排:简介和谐变道的深度强化学习模型模拟器设计实验设置和所提出的策略在训练和测试中的仿真结果模型的一些有趣问题总结。原创 2024-01-16 22:28:27 · 1164 阅读 · 0 评论 -
目标检测DETR:End-to-End Object Detection with Transformers
假设我们有一个给定的张量,其形状为[4,3,32,16],使用这个张量,我们可以确定这个批次有四张图形图像,每个图像都有三个彩色通道,图像的高度和宽度分别为32*16。 object queries每一次要先做自注意力操作,(第一层是可以不做的)这样做是为了消除冗余框,互相通信后会知道每个query可能得到一个什么框,尽量不去做重复的框。编码器进来的图像特征和object queries反复做注意力机制,每层的输入和输出维度都是不变的,都是object queries的大小。原创 2024-01-16 22:19:16 · 879 阅读 · 0 评论 -
车辆重定向DDRL: A Decentralized Deep Reinforcement Learning Method for Vehicle Repositioning
网约车系统提高了车辆的使用效率和城市交通。然而,供需失衡仍是一个问题。为了解决这一问题,提高资源利用效率,提出了一种用于车辆定位的分布式深度强化学习方法。在DDRL中,每辆车都被建模为一个独立的代理,并根据自己的状态进行调度,以重新平衡当地的供需。因此,全球再平衡问题被分解为许多小的局部再平衡问题。首先,提出了一种新的奖赏评估方法,将传统强化学习中长期的全局奖赏转化为多个短期的局部奖赏。其次,通过学习所有分散代理的样本数据,设计了一个统一的算法。最后,引入状态权重矩阵,放大相邻车辆状态之间的差异。原创 2024-01-16 22:12:59 · 384 阅读 · 0 评论 -
Transformer:Attention Is All You Need
CNN计算的时候,每次都是一个窗口,对于两个像素如果比较远的话,需要很多层卷积才可以把像素连接起来,但Transformer一次就能看到所有的序列,但卷积可以做多个输出通道,一个输出通道可以认为是识别不一样的模式,多头的注意力机制可以模拟CNN的多输出通道的一个效果。第三个Key和Value是编码器的输出(Value的加权和),Query是解码器的输入,根据query向量,在编码器的输出里面找出相似的东西,不相似的东西可以忽略掉。这种内部的固有顺阻碍了训练样本的并行化,在序列较长时,这个问题变得更加严重。原创 2024-01-16 22:04:28 · 904 阅读 · 0 评论