用于深层时空图建模的 Graph WaveNet

时空图建模可用于分析空间关系和时间趋势。现有的方法大多捕捉固定图形结构上的空间依赖性,假设实体之间的底层关系是预先确定的。显式图结构(关系)不一定反映真实的依赖关系。且现有的方法对于捕捉时间趋势是无效的,因为其使用的RNN或CNN不能捕获长时间序列。本文提出了一种新的用于时空图建模的图神经网络结构Graph WaveNet。开发一种新的自适应依赖矩阵并通过节点嵌入进行学习,故可以捕获数据中隐藏的空间依赖。Graph WaveNet具有一个堆叠的扩展一维卷积组件,其感受野随着层数的增加呈指数增长,能够处理非常长的序列。整个框架以端到端的方式学习。

时空图建模通过假设连接节点之间的相互依赖性,对动态节点级输入进行建模。

交通速度预测,在对每条道路上的交通速度时间序列数据建模时,自然会将交通系统的底层图结构视为节点之间相互依赖关系的先验知识。

时空图建模一个基本假设是节点的未来信息取决于其历史信息及其邻居的历史信息。故要同时捕获空间和时间依赖性。

目前对时空图建模的研究主要有两个方向。要么将图卷积网络(GCN)集成到循环神经网络(RNN)中,要么集成到卷积神经网络(CNN)中。目前两大缺点:1.这些研究假设数据的图结构反映了节点之间真正的依赖关系。但是现实中可能存在有连接但是两个节点之间不存在相互依赖关系,或两个节点之间存在相互依赖关系但缺少连接的情况。2.目前的时空图建模研究对于学习时间依赖性是无效的。基于RNN的方法在捕获远程序列时会遇到耗时的迭代传播和梯度爆炸/消失。相反,基于CNN的方法具有并行计算、梯度稳定和低内存需求的优势。然而,这些工作需要使用许多层来捕获非常长的序列,因为它们采用标准的1D卷积,其感受野大小随着隐藏层数量的增加而线性增长。

本文提出基于CNN的名为Graph WaveNet的方法。提出了一种图卷积层,在该层中,通过端到端的监督训练,可以从数据中学习自适应邻接矩阵。自适应邻接矩阵保留了隐藏的空间依赖关系。受WaveNet启发,我们采用堆叠的扩展因果卷积来捕获时间依赖性。随着隐藏层数量的增加,堆叠的扩张因果卷积网络的感受野大小呈指数增长。在堆叠的扩展因果卷积的支持下,Graph WaveNet能够高效地处理具有长时间序列的时空图数据。

本文贡献:1.构造了一个自适应邻接矩阵来保持隐藏的空间依赖性。2.提出了一个同时捕获时空依赖关系的有效框架。其核心思想是将我们提出的图卷积与扩展的因果卷积结合起来,每个图卷积层处理由扩展的因果卷积层在不同粒度级别提取的节点信息的空间依赖性。

图卷积网络是学习图结构数据的构造块。图卷积网络有两大主流:基于谱的方法和基于空间的方法。基于频谱的方法使用图频谱滤波器平滑节点的输入信号。基于空间的方法通过聚集邻域的特征信息来提取节点的高级表示。在这些方法中,邻接矩阵被视为先验知识,并且在整个训练过程中是固定的。大多数时空图网络遵循两个方向,即基于RNN和基于CNN的方法。于RNN的方法的主要缺点是,它对于长序列来说效率很低,并且当它们与图卷积网络结合时,其梯度更容易爆炸。基于CNN的方法将图卷积与标准1D卷积相结合。虽然计算效率很高,但须堆叠许多层或使用全局池来扩展神经网络模型的感受野。

问题描述:给定一个图G及其历史S步的图信号(特征矩阵),我们的问题是学习一个函数f,它能够预测接下来T步的图信号。

图卷积,从基于空间的角度来看,它通过聚集和转换节点的邻域信息来平滑节点的信号,优点是,它是一个合成层,其过滤器位于空间中,并且支持多维输入。图卷积层可定义为其中代表带自循环的归一化后的邻接矩阵代表输入信号代表输出,代表参数矩阵

 Li et al.2018年提出了一种扩散卷积层,其在时空建模中有效。他们用K个有限步模拟了图形信号的扩散过程。其扩散卷积层拓展为方程2的形式,结果是

 Pk表示转移矩阵的幂级数。对于无向图,对于有向图,扩散过程有两个方向,向前和向后,前向转移矩阵和后向转移矩阵有了前向和后向转移矩阵,扩散图卷积层写为

自适应邻接矩阵:这种自适应邻接矩阵不需要任何先验知识,通过随机梯度下降进行端到端学习。这样,模型可以自己发现隐藏的空间依赖关系。通过随机初始化带有可学习参数的两个节点嵌入字典来实现这一点。自适应矩阵为E1命名为源节点嵌入,E2命名为目标节点嵌入

 。通过将E1和E2相乘,我们得出源节点和目标节点之间的空间依赖权重。使用ReLU激活函数来消除弱连接,采用SoftMax函数对自适应邻接矩阵进行归一化处理。因此,归一化自适应邻接矩阵可以看作是隐藏扩散过程的转移矩阵。通过结合预定义的空间依赖和自学习的隐藏图依赖,提出了以下图卷积层

当图形结构不可用时,我们建议仅使用自适应邻接矩阵来捕获隐藏的空间依赖,即我们的图卷积属于基于空间的方法。我们在等式7中的图形卷积实际上被解释为聚合来自不同邻域阶的变换特征信息。

时间卷积层

我们采用扩展因果卷积作为时间卷积层(TCN),以捕捉节点的时间趋势。扩大的因果卷积网络通过增加层的深度,允许一个指数级大的感受野。与基于RNN的方法不同,扩展的因果卷积网络能够以非递归的方式处理长程序列,这有助于并行计算并缓解梯度爆炸问题。扩展的因果卷积通过在输入中填充零来保持时间因果顺序,因此对当前时间步的预测只涉及历史信息。作为标准1D卷积的一种特殊情况,扩展的因果卷积运算通过跳过一定步的值,在输入上滑动

图例为内核大小为2的扩展因果卷积。使用扩展因子k,它每k步选取输入,并对选定的输入应用标准1D卷积。

给定一个1D序列输入和过滤器带f的x的在时间步t上的扩展因果卷积操作表示为

,其中d是控制跳跃距离的扩展因子。通过按递增顺序堆叠带扩张因子的扩张的因果卷积层,模型感受野呈指数增长。它使扩展的因果卷积网络能够用更少的层捕获更长的序列,从而节省计算资源。

门控TCN:在递归神经网络中,门控机制至关重要。已证明其在控制时间卷积网络各层的信息流方面也很强大。一个简单的门控TCN只包含一个输出门,给定输入,有如下形式其中Θ1,Θ2,b,c是模型参数,是元素级积,g(·)是输出的激活函数,σ(·)是sigmoid函数,其决定了传递到下一层的信息的比率。我们在模型中采用门控TCN来学习复杂的时间依赖关系。

Graph WaveNet框架

 Graph WaveNet框架由K个堆叠的时空层和一个输出层组成。时空层由一个图卷积层(GCN)和一个门控时间卷积层(Gated TCN)构成,门控TCN包含两个平行的时间卷积层(TCN-a和TCN-b)。输入首先通过线性层进行变换,然后传递给门控时间卷积模块(门控TCN),然后是图卷积层(GCN)。每个时空层都有剩余连接,并与输出层连接。通过叠加多个时空层,Graph WaveNet能够处理不同时间级别的空间相关性。在底层,GCN接收短期时间信息,而在顶层,GCN处理长期时间信息。实际上,图卷积层的输入h是大小为[N,C,L]的三维张量,其中N是节点数,C是隐藏维度,L是序列长度。我们将图卷积层应用于每个。使用平均绝对误差(MAE)作为Graph WaveNet的训练目标,定义为

我们Graph WaveNet输出作为一个整体,而不是通过T步迭代生成。它解决了训练和测试之间不一致的问题,因为模型在训练过程中学习对一个步骤进行预测,并且在推理过程中预计会对多个步骤产生预测。为了实现这一点,我们人为地将Graph WaveNet的感受野大小设计为输入的序列长度,以便在最后一个时空层中,输出的时间维度正好等于1。之后,我们将最后一层的输出通道数设置为步长T的一个因子,以获得所需的输出尺寸。

 

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Graph-WaveNet是一种基于图神经网络的语音合成模型。它是Google DeepMind提出的一种创新性的语音合成方法。传统的语音合成模型如WaveNet使用的是基于序列的模型,即将语音合成视为一个逐个采样的过程,这样会导致计算效率低下和难以处理长时间的语音。而Graph-WaveNet则采用了基于图的模型,能够更好地解决这些问题。 Graph-WaveNet的核心思想是将语音信号转化为一个图形结构,其中节点表示音素或其它语音单位,边表示节点之间的依赖关系。这样可以将语音合成问题转化为在图上进行计算的问题。与序列模型相比,图模型能够充分利用语音信号中的局部和全局依赖关系,从而提高合成质量。 使用Graph-WaveNet进行语音合成的过程大致分为两步:图结构建模和声音合成。在图结构建模阶段,语音信号被分割成音素,并通过语音识别系统得到相应的标签。然后,根据音素序列构建一个有向无环图。在声音合成阶段,首先对图进行图卷积操作,以提取特征。然后,利用类似WaveNet的生成模型,根据输入的语音序列生成合成的声音信号。这样,Graph-WaveNet能够在保持高质量语音合成的同时,降低计算复杂度。 Graph-WaveNet的提出为语音合成领域带来了新的突破,使得合成的语音更加自然流畅。此外,Graph-WaveNet还可以扩展到多语种和多说话人的合成任务上,具有很好的拓展性和适应性。这些特点使得Graph-WaveNet成为目前语音合成领域的研究热点之一,并为未来更广泛的应用奠定了基础。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值