图网络的分类

A Comprehensive Survey on Graph Neural Network(图神经网络综述)

  1. Recurrent Graph Neural Networks(1.递归图神经网络)
  2. Convolution Graph Neural Networks(2.卷积图神经网络)
  3. Graph Autoencoders(3.图自动编码器)
  4. Spatial-temporal Graph Neural Networks(4.时空图神经网络)

**

A Comprehensive Survey on Graph Neural Networks( 图神经网络综述)

**

  1. Graph Convolution Networks(1.图卷积网络)
  2. Graph Attention Networks(2.关注网络图)
  3. Graph Auto-encoder(3.图自动编码器)
  4. Graph Generative Networks(4.图生成网络)
  5. Graph Spatial-Temporal Networks(5.图时空网络)

Deep Learning on Graphs: A Survey(图深度学习研究综述)

  1. Recurrent Graph Neural Networks(1.递归图神经网络)
  2. Convolution Graph Neural Networks(2.图卷积神经网络)
  3. Graph Autoencoders(3.图自动编码器)
  4. Graph Reinforcement Learning(4.图强化学习)
  5. Graph Adversarial Methods(5.图对抗学习)

更通用的框架,更一般的框架分类方式:

  1. MPNN:图神经网络和图卷积/ Message Passing Neural Networks
  2. NLNN:统一Attention/ Non-local Neural Networks
  3. GN:统一以上/ Graph Networks

图计算任务框架:

  1. 节点问题
  2. 边:将两个节点作为输入,输入边的预测
  3. 图:图分类/图匹配/图生成

图上任务类别:

  1. 半监督任务:Node
  2. 有监督:Graph/Node
  3. 无监督:Graph embedding

图的类别

  1. 异构图
  2. 二部图
  3. 多维图
  4. 符号图
  5. 超图
  6. 动态图

1、RGNN(Recurrent Graph Neural Networks)

递归图神经网络是图神经网络的一个先驱作品,是利用相同的递归参数,不断的去学习节点的高层特征。
在这里插入图片描述
hv表示这个节点在这一层上的特征,hu表示这个节点的邻居的特征。
GRU第一个参数表示该节点的特征,第2个部分表示聚合了该节点所有邻居的特征。通过GRU函数后就学习到了这个节点下一层节点的特征表示。
递归图神经网络和图卷积神经网络都是聚合邻居的信息,那么递归图神经网络和卷积神经网络有什么区别?
上图中(a)图表示递归图神经网络,(b)图表示图卷积神经网络。递归图神经网络中卷积所用的参数都是一致的,而图卷积神经网络中卷积层所用的参数是不一致的。

2. Graph Convolution Networks(图卷积神经网络)

GCN和GraphSage都认为邻居节点具有排列不变性,PATCH-SAN是真正用到卷积的操作来对节点进行深层次的特征学习。如果要对一个节点做卷积,首先要得到该节点周围的邻居信息,然后要得到邻居信息的一个有序排列。下面看看PATCH-SAN是如何得到邻居信息的有序序列的,

在这里插入图片描述

3. Graph Attention Networks

GAT
利用节点和节点的attention,求出该节点与它周围节点的attention系数,通过attention系数加权求和邻居节点的信息,学到该节点在下一层的特征表示。

4. Graph Auto-encoder

输入一张图,通过GCN就学到了该图的一个隐层表示Z,Z和Z的转置相乘就还原出一张图。求输入图和输出图的结构性误差,把这个结构性误差当做损失函数,求这个损失函数的最小值,那么就学到了GCN的参数。
GAE是把Auto-encoder的encoder变成GCN,把decoder变成Z和Z的转置相乘。
在这里插入图片描述

输入一张图,通过第一层的GCN共享参数,然后通过第二层GCN学习μ和σ,将μ和σ组合到一起就得到Z向量,然后Z和Z的转置相乘就还原出一张图。将输入图和输出图最小化结构性误差,就学习到了encoder中GCN参数值。
在这里插入图片描述

5. Graph Spatial-Temporal Networks(时空网络)

同时考虑图的空间性和时间维度。比如在交通邻域中,速度传感器会随时间变化的时间维度,不同的传感器之间也会形成连接的空间维度的边。当前的许多方法都应用GCN来捕获图的依赖性,使用一些RNN 或CNN 对时间依赖性建模。

6. Graph Generative Networks(图生成网络)

通过RNN或者GAN的方式生成网络。图生成网络的一个有前途的应用领域是化合物合成。 在化学图中,原子被视为节点,化学键被视为边。 任务是发现具有某些化学和物理性质的新的可合成分子

7. Graph Reinforcement Learning

采用强化学习的方法应用于图网络上。

8. Graph Adversarial Methods

GAN的思想,生成器生成样本,分类器去判别样本。

在这里插入图片描述在这里插入图片描述

GN:Graph Networks

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

我们讨论了简单图的图神经⽹络模型,这些图是静态的,只有⼀种节点和⼀种边。然⽽,在许多现实世界的应⽤程序中的图表要复杂得多。它们通常有多种类型的节点、边缘、独特的结构,⽽且通常是动态的。

图的类别

  1. 异构图 Heterogeneous Graph Neural Networks
  2. 二部图 Bipartite Graph Neural Networks
  3. 多维图 Multi-dimensional Graph Neural Networks
  4. 符号图 Signed Graph Neural Networks
  5. 超图 Hypergraph Neural Networks
  6. 动态图 Dynamic Graph Neural Networks

下面简单介绍一下这几个图
1. 异构图 Heterogeneous Graph Neural Networks
点和点之间或者边和边之间的关系是不一样的。下面这个例子中,作者写了一些文章,这些文章被发表到不同的期刊上,文章和文章之间也有一个引用的关系。
不同的节点所构成的图就称其为异构图。
在这里插入图片描述
2. 二部图 Bipartite Graph Neural Networks
将图中的节点分为两部分,其中每一部分中节点之间是没有边连接的,不同部分的节点之间可以有边连接。
在这里插入图片描述
3. 多维图 Multi-dimensional Graph Neural Networks
多种关系所组成的图称为多维图。
在这里插入图片描述
4. 符号图 Signed Graph Neural Networks
边是有相反属性关系的,边要么是正值,要么是负值。下面的例子中,两个用户节点之间如果是朋友的关系就定为正值,不是朋友(敌对关系)就是负值。
边上有符号得图称为符号图。
在这里插入图片描述
5. Hypergraphs 超图:边可能会关联(或者说包含)两个以上的点
每个边所包含的顶点个数都是相同且为k个的,就可以被称为k阶超图,常见的图就是2阶超图

在这里插入图片描述6. 动态图 Dynamic Graphs
随着时间的变化所生成的图称之为动态图。
在这里插入图片描述

  • 4
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值