论文笔记:Graph neural networks: A review of methods and applications 【补充了一些论文没有的东西】

本文详细介绍了图神经网络(GNN)的设计流程,包括获取图结构、判断图的类型和尺寸、设计损失函数以及创建模型。在模型创建中,重点讨论了传播模块,如卷积算子的谱域方法和空域方法,以及基于注意力机制的方法。此外,文章还涵盖了无监督学习场景下的图自编码器和对比学习。最后,文章提到了GNN在结构化和非结构化场景中的应用,如化学、知识图谱、交通网络等。
摘要由CSDN通过智能技术生成

 1 GNN的设计pipeline

1.1 获取图结构

  • 结构化场景
    • 图结构在应用问题中是已知的
      • 比如分子结构、物理系统
  • 非结构化场景
    • 图结构在应用问题中是未知的
      • 需要根据任务人为地建图

1.2 判断图的类型 & 尺寸

  • 图的类型
    • 有向图/无向图//+
    • 异构图/同构图
      • 图中的点和边类型是不是一样的
    • 静态图/动态图
      • 如果输入特征/图的拓扑关系会随着时间变化,那么图是一个动态图
    • 这类类型之间是正交的,也就是可以有各种类型的组合
  • 尺寸
    • 没有明确的规定大图和小图
    • 评判标准会随着计算硬件设备的发展而变化
      • 在这篇论文中,如果邻接矩阵/拉普拉斯矩阵(O(n^2)复杂度)无法被设备存储,那么我们认为这是一个大图

1.3设计损失函数

  • 点级别的任务
    • 点分类、点回归、点聚类等
  • 边级别的任务
    • 边分类、连边预测
  • 图级别的任务
    • 图分类、图回归

  • 有监督图学习
    • 提供供训练的标签数据
  • 半监督学习
    • 提供少量标记节点和大量未标记节点进行训练
    • 测试阶段有两种配置:
      • 传导设置:要求模型预测给定未标记节点的标签
      • 归纳设置:提供相同分布下的新未标记节点进行推断
  • 无监督学习
    • 只提供未标记数据,供模型查找模式

1.4 创建模型

  • 传播模块
    • 在节点之间传播信息,以便聚合的信息可以捕获特征和拓扑信息
    • 通常使用卷积运算符和循环运算符来从邻居中聚合信息
    • skip-connection用于从节点的历史表示中收集信息并缓解过度平滑问题
  • 采样模块
    • graph很大的时候,通常需要采样模块来在图形上进行传播
  • 池化模块
    • 使用池化模块从节点中提取high-level信息

 2 计算模组介绍

2.1 传播模块(卷积算子)

  • 卷积算子是传播模块中最常使用的算子
    • 将其他领域中的卷积计算推广到图领域中
    • 可以分为:空域方法/谱域方法

2.1.1 谱域方法

  • 基于图的谱域表征
    • 在谱域方法中,首先利用图傅里叶转换F,将空域图信号x转换至谱域
      • F(x)=U^T(x)
    • 然后使用谱域上的卷积
    • 谱域卷积完成后,使用逆傅里叶转换将结果信号转换回去
      • F^{-1}(x)=Ux
    • U是正则化拉普拉斯矩阵L=I_N-D^{-\frac{1}{2}}AD^{-\frac{1}{2}}的特征向量组成的矩阵
      • D是图的度矩阵,A是图的邻接矩阵
      • 正则化拉普拉斯矩阵是一个对称半正定矩阵,所以他可以被分解成L=U\Lambda U^T,其中\Lambda是特征值组成的对角矩阵
  • ——>图上的谱域卷积可以表示成
    • U^Tg是谱域上的filter
      • 可以使用一个可学习的对角矩阵gw来简化之
        • 为什么可以用对角矩阵简化呢:

之后论文介绍了几种经典的谱域卷积方法,来研究不同的gw 

Spectral Network(2014)
  • 使用了一个可学习的对角矩阵作为图卷积的filter
    • gw=diag(w),w \in R^N是参数
  • 缺点
    • 计算效率低
      • 需要对拉普拉斯矩阵进行特征分解
    • 无法体现图中的空间关系
Convolutional Neural Networks on Graphs with Fase Localized Spectral Filtering (2016NIPS)

不需要对拉普拉斯矩阵进行特征分解,同时卷积核参数个数由n减少为k

ChebNet(2016)

                       \tilde{L}=\frac{2}{\lambda_{max}}L-I_N

                        \lambda_{max}是L最大的特征值

                        \tilde{L}中的特征值是[-1,1]

                        此时的参数是w \in R^K(切比雪夫多项式的参数)

                        切比雪夫多项式T_k(x)=2xT_{k-1}(x)-T_{k-2}(x)

                        T_0(x)=1,T_1(x)=x

  • 优点:
    • 不用计算拉普拉斯矩阵的特征向量
    • 使用K阶切比雪夫多项式,相当于感受野是到K阶邻居
    • 相比于Spectral Network,参数量从N减少为K
GCN(2017)
  • 将ChebNet中卷积操作的K简化为1,以减缓过拟合问题

    • 进一步假定\lambda_{max}=2,这样ChebNet中的公式(4)可以简化为:
      • 此时只剩两个参数w0和w1

        • GCN进一步简化参数量,使得w0=-w1,于是公式 (5)又变成:

    • 在(6)的基础上,GCN为了解决梯度消失/爆炸的问题,进一步提出了重规范化(renormalization)
      • I_N+D^{-0.5}AD^{-0.5} \rightarrow \tilde{D}^{-0.5}\tilde{A}\tilde{D}^{-0.5}
        • \tilde{A}=A+I_N
        • \tilde{D_{ii}}=\sum_j\tilde{A_{ij}}
    • ——>最终GCN的形式为
    • GCN可以看作这样的一个流程:
      • 用参数W对图输入X进行特征提取,输出XW【对图上每个节点的特征分别进行提取,将特征维度从m变化到n】
      • 根据图结构建立一个邻接矩阵A,对归一化得到\tilde{A}
      • 利用归一化的邻接矩阵对提取后的特征XW进行聚合,就是GCN的结果
AGCN(2018)
  • 前面的模型都使用原始图结构来表示节点之间的关系。
  • 然而,不同节点之间可能存在隐含的关系。
  • ——>AGCN学习一个“残差”图拉普拉斯矩阵,并将其添加到原始拉普拉斯矩阵中。

DGCN(2018)
  • 同时考虑局部依赖关系和全局依赖关系
    • 局部依赖关系:类似于GCN
    • 全局依赖关系
      • 将GCN中的邻接矩阵替换成正向逐点互信息矩阵Ap(postive mutual information matrix PPMI)
GWNN(2019)
  • 使用小波变换替代傅里叶变换
  • 优点:
    • 图小波变换可以快速获得,无需矩阵分解

图小波神经网络(GWNN)(Xu等人,2019a)使用图小波变换来替代图傅里叶变换。它具有几个优点:(1)图小波可以快速获得,无需进行矩阵分解;(2)图小波是稀疏且局部化的,因此结果更好且更可解释。GWNN在半监督节点分类任务上优于几种频谱方法。

谱域卷积的一个问题:几乎所有上述提到的频谱方法中,所学习的滤波器依赖于图结构。换句话说,这些滤波器不能应用于具有不同结构的图

2.1.2 基本空域方法

  • 直接基于图的拓扑结构在图上定义卷积操作。
  • 空域卷积的主要挑战是如何定义具有不同大小邻域的卷积操作,并保持卷积神经网络的局部不变性
Neural FPs(2015)

给不同度的点不同的权重

缺点:不能应用到太大的图中

DCNN(2016)
  • 使用转移矩阵来定义节点的邻域
    • X \in R^{N \times F}是输入特征矩阵 (F是特征的维度)
    • P* \in {N \times K \times N}是一个 N×K×N 的张量,其中包含矩阵 P 的幂级数\{P,P^2,\cdots,P^K\}
      • P是由图的邻接矩阵 A  度归一化得到的转移矩阵
PATCHY-SAN(2016)
  • 对于每个节点,提取并归一化恰好包含 k 个节点的邻域。
GraphSAGE(2017)

  •  GraphSAGE在聚合信息时,不使用完整的邻居集合,而是均匀地从中抽样一个固定大小的邻居集合。
  • AGG是聚合函数,GraphSAGE提供了三种聚合器:均值聚合器、LSTM聚合器和池化聚合器。
    • 使用均值聚合器的GraphSAGE可以被视为GCN的归纳版本
    • LSTM聚合器则不是置换不变的,它需要节点的指定顺序。
MPNN(2017)

(论文是划归到 空域方法的一般框架中),实际上还是空域卷积,但和之前和空域卷积的方法不同的是,这是一个通用框架

  • 模型分成两个阶段:
    • message passing阶段
      • 汇总自己、邻居、和邻居连边的信息
      • 将汇总的信息和上一层自己的信息一起,用来更新这一层自己的信息
      • 【某种程度上像GraphSAGE,汇总信息的时候加上了自己和边的信息】
    • readout阶段

Graph Network

(论文是划归到 空域方法的一般框架中),实际上还是空域卷积,但和之前和空域卷积的方法不同的是,这是一个通用框架

  • 核心模块是GN块
    • GN块由3个更新函数和3个加总函数组成

 2.1.3 基于attention的方法

  • 基于attention的算子对权重施加不同的权重
    • ——>减缓噪声,获得更好的结果
GAT(2018)

在传播阶段使用attention机制

每一个点的hidden state可以表示成:

  • 此外,GAT利用多头注意力机制来稳定学习过程。
    • 应用K个独立的注意力头来计算隐藏状态
    • 然后将它们的特征:
      • 连接起来
      • 或者计算平均值
GaAN(2018)也使用了多头注意力机制。然而,它使用了自注意力机制来从不同的注意力头中收集信息,以替代GAT中的平均操作。

2.2 传播模块(recurrent 算子)

循环运算符和卷积运算符之间的主要区别在于,卷积运算符中的层使用不同的权重,而循环运算符中的层共享相同的权重。

2.2.1 基于收敛的模型

 和MPNN这种很类似,也是先将自己、邻边、邻点的feature,和邻点的hidden state一起加总,然后送到输出去

令 H、O、X 和 XN 分别是由所有状态(点+边)、所有输出、所有特征和所有节点特征堆叠而成的矩阵。那么可以使用如下的紧凑形式表示基于收敛的模型:

如果堆叠几层这样的GNN-recurrent,会不断迭代(21)式,直至收敛(Banach不动点理论)

尽管实验证据表明GNN-recurrent是一种用于建模结构数据的强大架构,但仍存在一些限制:

  1. GNN-recurrent要求f是一个收缩映射,这限制了模型的能力。而且,迭代更新节点的隐藏状态直至达到稳定点的过程效率较低。
  2. 如果我们关注的是节点的表示而不是图的表示,使用稳定点是不合适的,因为稳定点中表示的分布在值上会更加平滑,对于区分每个节点的信息量较少。

2.2.2 基于门的方法

  • 在propagation阶段使用类似于GRU或者LSTM的门机制来减少计算限制+提升图结构中信息的长距离传递
  • 信息传递估计的轮数,不必要求收敛

 2.3 基于skip-connection的传递模组

  • 许多模型会堆叠图神经网络层,旨在通过增加更多层,使每个节点从k-hop邻居处聚合更多信息,以获得更好的结果。
  • 然而,在许多实验证明,更深的模型并不能改善性能,甚至可能表现更差
    • 因为更多的层也会传播来自指数级增加的邻居成员的噪声信息
    • 还会导致过度平滑的问题,因为当模型变得更深时,节点在聚合操作后往往具有相似的表示。
  • ——>很多模型尝试使用skip-connection的方法来解决这个问题
Highway GCN(2018)
  • 使用了逐层的门(权重)

CLN(2017)也使用了highway network,但是不同的方法来计算门权重
JKN(2018)
  • 最后一层对每个节点,从其所有中间表示中选择(直接"jump"到最后一层)
    • ——>使得模型可以根据需要为每个节点自适应地选择有效的邻域大小。
DeepGCN
  • ResGCN
  • DenseGCN

2.4 采样

  • GNN模型通过从上一层的邻域中为每个节点聚合信息。
    • 如果我们回溯多个GNN层,邻居的数量将随着深度呈指数级增长。
    • 为了缓解这种“邻居爆炸”问题,一种高效而有效的方法是进行采样。
  • 此外,当处理大型图时,我们不能始终存储和处理每个节点的所有邻域信息
  • ——>因此需要采样模块来辅助进行信息传播。

2.4.1 点采样

  • 减小邻居节点数量的一种直接方法是从每个节点的邻域中选择一个子集。
GraphSAGE(2017)采样固定数量的邻居,确保每个节点的邻域大小在2到50之间
PinSage(2018)
  • 提出了基于重要性的采样方法
  • 通过从目标节点开始模拟随机游走,该方法选择具有最高归一化访问计数的前T个节点

2.4.2  层采样

层采样在每个层保留一小组节点进行邻居信息聚合。

FastGCN(2018)使用重要性采样,其中重要节点在每一层更有可能被采样到
Adaptive sampling towards fast graph representation learning.(2018)引入了一个参数化和可训练的采样器,用于在前一层的条件下进行逐层采样

2.4.3 子图采样

  • 与在完整图上进行节点和边的采样不同,一种根本不同的方式是采样多个子图,并在这些子图中限制邻域搜索。
ClusterGCN(2019)通过图聚类算法对子图进行采样
GraphSAINT(2020)直接对节点或边进行采样以生成子图

2.5 池化模块

在一些模型中称为readout函数

简单点池化对节点特征进行节点级的最大/平均/求和/注意力等操作,以获得全局图表示
Set2Set如MPNN中基于LSTM的Readout 操作
SortPooling(2018)
  • 首先根据节点的结构角色对节点嵌入进行排序
  • 然后将排序后的嵌入输入到CNN中以获得表示
层次池化

3 不同类型的图

 3.1 有向图

  • 有向边通常包含比无向边更多的信息。
  • 可以通过在卷积操作中采用不对称的邻接矩阵来模拟边的正向和反向方向,而不仅仅是简单地采用一个不对称的邻接矩阵。
  • DGP(2019)在正向和反向方向上使用两种权重矩阵Wp和Wc进行卷积操作。

3.2 异质图

  • 图中的点/边是多模态/多类型的
    • 在一个异质图\{V,E,\varphi, \psi \}中,每个点都有他的类别φ,每条边也有相应的类别ψ

3.2.1 基于元路径的方法

  • 元路径确定了路径中每个位置上节点的类型
    • \varphi_1 \stackrel{\psi_1}{\rightarrow} \varphi_2 \stackrel{\psi_2}{\rightarrow} \varphi_3 \cdots \stackrel{\psi_L}{\rightarrow} \varphi_{L+1}
    • 通过连接元路径实例的两个端点节点,元路径捕捉到了两个可能没有直接连接的节点之间的相似性
    • ——>一个异构图可以被转化为多个同质图,然后可以应用图学习算法。

3.2.2 基于边的方法

在采样、聚合等方面针对不同类型的邻居和边使用不同的函数。

HetGNN( 2019)在采样、特征编码和聚合步骤中直接对不同类型的邻居进行区分处理
HGT( 2020)
  • 将元关系定义为两个相邻节点及其边的类型 <\varphi(v_i),\psi(e_{ij}),\varphi(v_j)>
  • 为不同的元关系分配不同的注意力权重矩阵,使模型能够考虑类型信息

3.2.3 关系图问题

  • 有些图的边可能包含的信息比类型更多,或者类型的数量过大
    • ——>应用基于元路径或元关系的方法变得困难
    • ——>我们将这种图称为关系图

3.2.4 多重图/多视图图 Multiplex graph

  • 在更复杂的情况下,图中的一对节点可以与多种不同类型的边相关联
    • 针对不同类型的边进行观察,图可以形成多个层次,其中每一层代表一种关系类型
  • ——>边的类型不被假设为相互独立,因此简单地将图分割为只包含一种类型边的子图可能不是最优解

3.3 动态图

  • 图中边/点的信息随时间不断变化
DCRNN(2018)、STGCN(2018)
  • 首先通过GNN收集空间信息
  • 然后将输出输入到序列模型中,如Seq2Seq或RNN。
Structural-RNN(2016),ST-GCN(2018)
  • 同时收集空间和时间消息。
  • 通过增加时间连接来扩展静态图结构,因此可以在扩展后的图上应用传统的GNN
DGNN(2020)
  • 将GCN的输出送到LSTM中
EvolveGCN(2020)
  • 认为直接建模节点表示的动态性会影响模型在节点集保持变化的图上的性能
    • ——》它不是将节点特征视为RNN的输入,而是将GCN的权重馈送到RNN中以捕捉图的内在动态性

3.4 超图

  • 一个超图可以用G = (V, E, We)表示
    • 其中边e ∈ E连接两个或多个顶点,并被赋予权重w ∈ We。
    • 超图的邻接矩阵可以用一个大小为|V| × |E|的矩阵L来表示

HGNN

Dv——点度数矩阵

We——边权重矩阵

De——边度数矩阵

X——点特征

W——可学习参数

3.5 有符号图

  • 有符号图是具有有符号边的图,即边可以是正或负的。
  • 一种思路是将负边简单地视为缺失的边或另一种类型的边
  • SGCN(2018)利用平衡理论来捕捉正边和负边之间的相互作用。
    • 直观地说,平衡理论认为我的朋友的朋友也是我的朋友(正边),而我的敌人的敌人是我的朋友(负边)。
       

4 无监督训练场景

  • 对于监督学习和半监督学习的情景,由于提供了标签,所以可以轻松地为这些带标签的样本设计损失函数。
  • 对于无监督学习的情景,没有标记的样本,因此损失函数应该依赖于图本身提供的信息,例如输入特征或图的拓扑结构。

4.1 图自编码器

GAE(2016)首先使用GCN来编码图中的点
  • H=GCN(X,A)
然后使用一个简单的decoder来重构邻接矩阵
  • \tilde{A}=\rho(HH^T)
通过计算原始邻接矩阵和重构邻接矩阵的相似度,来计算损失函数
MGAE(2017)
  • 利用边缘去噪自编码器获得稳健的节点表示
GALA(2019)
  • 构建对称的图自编码器
  • 提出了拉普拉斯锐化(Laplacian sharpening),即拉普拉斯平滑的逆操作,用于解码隐藏状态
    • ——>这种机制缓解了图神经网络训练中的过度平滑问题

4.2 对比学习

Deep Graph Infomax,DGI(2019)最大化节点表示和图表示之间的互信息
Infograph(2020)通过不同尺度(包括节点、边和三角形)的子结构级表示和图级表示之间的互信息最大化来学习图表示
Multi-view(2020)对比来自一阶邻接矩阵和图扩散的表示,在多个图学习任务上实现了最先进的性能

5 GNN的分析

5.1 理论分析

5.1.1 图信号处理

  • Deeper insights into graph convolutional networks for semi-supervised learning (2018)
    • 首次指出图神经网络中的图卷积实际上是拉普拉斯平滑(Laplacian smoothing)
    • ——》拉普拉斯平滑了特征矩阵,反映了相似性假设,即附近的节点应该是相似的
  • SGC(201b)进一步去除了层间的权重矩阵和非线性操作,表明低通滤波器是GNN有效的原因
    • 在低通滤波的思想下,后续很多论文分析了不同的滤波器
      • AGC(2019)为了实现所有特征值的低通滤波,设计了图滤波器I-\frac{1}{2}L
        AGE(2020)进一步证明了使用I-\frac{1}{\lambda_{max}}L的滤波器可以获得更好的结果
        NT(2019)

        图卷积主要是对输入特征进行去噪的过程,模型的性能在很大程度上取决于特征矩阵中的噪声量

5.1.2 图泛化能力

The vapnik–chervonenkis dimension of graph and recursive neural networks (2018)证明了一类有限GNN的VC维度
Generalization and representational limits of graph neural networks(2020)基于神经网络的Rademacher界给出了更紧密的泛化界限
Stability and generalization of graph convolutional neural networks(2019)
  • 分析了具有不同卷积滤波器的单层GNN的稳定性和泛化性质
  • 得出结论:GNN的稳定性取决于滤波器的最大特征值
Understanding attention and generalization in graph neural networks(2019)
  • 关注了GNN中注意机制的泛化能力
  • 注意机制有助于GNN对更大和嘈杂的图进行泛化

 5.1.3 表达能力

How powerful are graph neural networks?(2019)

Weisfeiler and leman go neural: higher-order graph neural networks(2019)

  • GCNs和GraphSAGE相比于Weisfeiler-Leman(WL)测试算法,在区分性方面较弱
  • WL测试算法是一种用于图同构性测试的算法
GIN(2019)更有表达力的GNN
The logical expressiveness of graph neural networks.(2019)
  • 讨论了GNNs在FOC2(一阶逻辑的一个片段)中的表达能力。
  • 作者发现现有的GNNs很难符合逻辑要求
Graph neural networks exponentially lose expressive power for node classification(2020)局部相关的GNN变体无法学习全局图属性,包括直径、最大/最小环或模式

5.1.4 不变性

由于图中没有节点顺序,GNN的输出嵌入应该是对输入特征进行排列不变或等变的。

Invariant and equivariant graph networks.(2019)通过表征排列不变或等变的线性层来构建不变的GNN
On the universality of invariant networks.(2019)进一步证明了可以通过高阶张量化获得通用的不变GNN

5.1.5 可迁移性

GNN的一个特征是其参数与图解耦,这意味着具备跨图传递(可迁移性)并具有性能保证的能力。

Transferability of Spectral Graph Convolutional Neural Networks.(2019)研究了谱图滤波器的可传递性,表明这样的滤波器能够在同一域中的图之间进行传递
Graphon neural networks and the transferability of graph neural networks(2020)
  • 分析了GNN在图分形(graphon)上的行为。
  • 图分形指的是一系列图的极限,也可以看作是稠密图的生成器。
  • 作者得出结论,GNN能够在从相同图分形确定性生成的不同大小的图之间进行传递。

5.1.6 标签效率

(半)监督学习对于GNN来说需要大量的标记数据才能达到令人满意的性能。

已有研究证明了通过选择高度节点和不确定节点等信息丰富的节点,可以大大提高标记效率。

5.2 实验角度

5.2.1 模型评估

  • 评估机器学习模型是研究中的一个重要步骤。多年来,人们对实验的可重复性和可复制性提出了关切。
    • GNN模型是否有效以及在多大程度上有效?
    • 模型的哪些部分对最终性能起到贡献?
    • 。。。
Pitfalls of graph neural network evaluation(2018)
  • 在半监督节点分类任务中,在相同的训练策略和超参数调整下GNN模型的表现
  • 得出的结论是,不同的数据集划分会导致模型排名截然不同。
    • 此外,在适当的设置下,简单模型可能优于复杂模型
A fair comparison of graph neural networks for graph classification(2020)
  • 回顾了几种图分类模型,并指出它们的比较方式不合适。
  • 基于严格的评估,结构信息被发现没有被充分利用于图分类任务
Design space for graph neural networks.(2020)
  • 讨论了GNN模型的架构设计,例如层数和聚合函数。通过大量的实验,这项工作为各种任务的GNN设计提供了全面的指南。

5.2.2 基准benchmark

Benchmarking Graph Neural Networks.(2020)

Open graph benchmark: datasets for machine learning on graphs.(2020)

提供了可扩展和可靠的图学习基准
Benchmarking Graph Neural Networks.(2020)在多个领域和任务中构建了中等规模的基准数据集
Open graph benchmark: datasets for machine learning on graphs.(2020)提供了大规模数据集

6 应用

6.1 结构化场景

6.1.1 graph mining

图匹配、图聚类

6.1.2 物理

  • 对实际物理系统进行建模
    • 物理系统可以建模为系统中的对象和对象之间的成对相互作用
    • 通过将对象建模为节点,成对相互作用建模为边,可以将系统简化为图

6.1.3 化学

分子指纹 molecular  fingerprint

编码分子结构

分子可以自然地被看作是图,其中原子是节点,化学键是边

化学反应预测 chemical reaction prediction
蛋白质界面预测 protein interface prediction
  • 蛋白质通过界面相互作用,界面由每个参与蛋白质的氨基酸残基形成
  • 蛋白质界面预测任务是确定特定残基是否构成蛋白质的一部分
  • 一般而言,对于单个残基的预测依赖于其他相邻残基。通过将残基作为节点,蛋白质可以被表示为图,从而可以利用基于GNN的机器学习算法
生物医学工程

 6.1.4  知识图谱

  • 知识图谱(KG)表示一组现实世界的实体及其之间的关系
  • 在KG上的任务包括学习低维度的嵌入
    • 其中包含:
      • 实体和关系的丰富语义信息
      • 预测实体之间的缺失连接
      • 对知识图谱进行多跳推理
      • 。。。

6.1.5 生成模型

比如:发现新的化学结构、构建知识图谱。。

6.1.6 组合优化问题

图上的组合优化问题是一类NP难问题。一些特定的问题,如旅行商问题(TSP)和最小生成树(MST),已经有了各种启发式解法。最近,使用深度神经网络来解决这类问题成为热点,其中一些解决方案进一步利用了图神经网络的图结构特性。

6.1.7 交通路网

6.1.8 推荐系统

6.2 非结构化场景

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UQI-LIUWJ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值