图神经网络
文章平均质量分 90
在下小天n
强者为王!
展开
-
深入理解图卷积网络(4)
图神经网络的滤波性质,我们先来想一个问题:在图信号中,究竟是什么频率的信号起了更大的作用?在得到重构的图信号之后,我们以它为输入,训练一个两层的多层感知机,在图数据上做节点分类任务。D -1/2AD-1/2 xW实际上是一个没有加自环的图卷积网络,在加了自环并做相应的正则化后,D-1/2(A+为了简化分析,假设图论傅里叶变换所用的是正则化后的拉普拉斯矩阵 L=I-D-1/2AD-1/2,那么D-1/2AD-1/2x=(I-L)X=U(I-假设一个图是联通的,并且不是一个二分图,我们对它上面的一个图信号。原创 2024-09-12 18:36:20 · 503 阅读 · 0 评论 -
图神经网络介绍3
当我们要判断两个图是否同构时,先通过聚合节点和它们邻居的标签,再通过散列函数得到节点新的标签,不断重复,直到每个节点的标签稳定不变。Weisfeiler-Lehman 测试最大的特点是其对每个节点的子树的聚合函数采用的是单射的散列函数。与Weisfeiler-Lehman测试一样,在表达网络结构的时候,一个节点的表征会由该节点的父节点的子树信息聚合而成。数据,两层图卷 积网络即可达到很好的效果,叠加更多的层并不一定能提升模型的表现,反而 可能导致过平滑的问题。之后发展出的各种各样的图神经网络大都可以归。原创 2024-09-12 00:03:20 · 759 阅读 · 0 评论 -
图神经网络模型介绍2
空域图神经网络出现得更早,并在后期更为流行。它们的核心理念是在空域上直接聚合邻接点的信息,非常符合人的直觉。如果把欧几里得空间中的卷积扩展到图上,那么显然这些方法需要解决的一个问题是:如何定义一个可以在不同邻居数目的节点上进行的操作,而且保持类似卷积神经网络的权值共享的特性。早期的图神经网络就是直接从空域(顶点上的信号)的角度来考虑的。它的基础是不动点理论。它的核心算法是通过节点的信息传播达到一个收敛的状态,基于此进行预测(由于它的状态更新方式是循环迭。原创 2024-09-11 09:28:18 · 749 阅读 · 0 评论 -
图神经网络模型介绍(1)
在实际应用中,我们通常可以叠加多层图卷积,得到一个图卷积网络。我们以H¹ 表示第L层的节点向量,W¹表示对应层的参数,定义。参数是没办法迁移的,因此谱域图神经网络通常只作用在一个单独的图上,这大大限制了这类模型的跨图学习和泛化能力。接下来,我们从切比雪夫网络的公式(3.12)出发,对图卷积网络进行推导。下面,我们以一个常用的两层图卷积网络来解释图卷积网络是怎么对节点。从图信号分析的角度考虑,我们希望这个过滤函数g 能够有比较好的局部化,常作用在图拉普拉斯矩阵的特征值矩阵上,在换到另一个图上时,这些卷积核。原创 2024-09-09 15:02:15 · 862 阅读 · 0 评论 -
图神经网络(2)预备知识
对于接触过数据结构和算法的读者来说,图并不是一个陌生的概念。如果图里的边不仅表示连接关系,而且具有表示连接强弱的权重,则这个。从图的某个顶点出发,沿着图中的边访问每个顶点且只访问一次,这叫作。在图上模拟一个热扩散的过程,φ(t)是图上每个顶点的热量分布,热量传播。如果一个图的每个边都有一个方向,则称这个图为有向图。图的同构指的是两个图完全等价。很显然,这个大于等于0的,所以L是半正定的。拉普拉斯矩阵的另一个重要作用是作为图上的离散拉普拉斯算子。然地,我们把拉普拉斯算子的特征函数换成拉普拉斯矩阵的特征。原创 2024-09-07 19:46:53 · 916 阅读 · 0 评论 -
图神经网络基础(1)
由于图结构的普遍性,将深度学习扩展到图结构上的研究得到了越来越多的关注,图神经网络(GraphNeuralNetworks,GNN)的模型应运而生。实体被叫作图的节点,而实体和实体之间的关系构成了图的边。我们介绍了各种各样的图,很容易发现图的研究是横跨很多不同的领域的,而在很多任务上,研究图的性质都需要具有领域知识。大部分图结构上的边并非只能取值二元的{0,1},因为实体和实体的关系不。当我们任意变换两个节点在图结构中的空间位置时,整个图的结构是不变。(3)图上的任务:包括图的分类、图的生成、图的匹配等。原创 2024-09-06 09:39:47 · 1008 阅读 · 0 评论