图神经网络(7)- GNN通用框架

本文深入探讨了图神经网络(GNN)的通用框架,包括GCN、GraphSAGE和GAT。GCN通过节点度标准化进行信息传递和聚合,而GraphSAGE引入了两层聚合策略。GAT则通过注意力机制赋予节点间不同的权重,使得模型能更好地捕捉节点间的关系。多头注意力机制增强了模型的稳定性。这些技术在图数据的分析和处理中有着广泛的应用。
摘要由CSDN通过智能技术生成

目录

图神经网络通用框架

 

从GCN到GraphSAGE,GAT


摘要: 介绍GNN通用框架从GCN到GraphSAGE,GAT

图神经网络通用框架

开始,先介绍一个通用的图神经网络GNN框架。你会发现,这个框架与之前讲的GCN非常相似。

首先,一个图神经网络层定义为:信息传递+聚集

不同的message与aggregation操作组合就是不同图神经网络。

然后,将不同GNN层连接起来,就和其他CNN或者MLP一样

可以对图进行增强。既可以增强图的特征也能增强图的结构。譬如说,GNN的输入数据不直接用图的节点特征,而是经过编码器处理后再输入。

 最后,通过学习的目标函数,去训练GNN。

 

从GCN到GraphSAGE,GAT

之前已经提过了,通过对message和aggregation的改进,就可以得到不同类型的图神经网络。

首先,先看看GCN的message和aggregatation是什么样子的。

GCN的message操作就是:乘以权重矩阵,并用节点度做标准化。

 下面看一下,GraphSAGE。

 按照message和aggregation的思路去看,graphSAGE(Graph SAmple and aggreGatE)有两层aggregation。

声明:这个地方主要是以message和aggregation的思路去看,模型的具体细节参考。GraphSAGE: 算法原理,实现和应用https://zhuanlan.zhihu.com/p/79637787

下面再看一下,GAT。

 在GCN中α=1/|degree of v|,在对v的邻居节点求和,其实就相当于把每个节点看得同样重要,每个节点的权重是1/|degree of v|,和为1。如α不再取固定值,而是根据邻居节点的重要性不同而改变,那么这就是GAT。

下面的问题就是,周末求这个参数α(重要性)呢?

课程里面给的计算方法如下:

 

 总结一下GAT:

首先,用权重矩阵W乘以u和v节点的上一层嵌入值,然后连接起来放进一个linear(其实就是把连接起来的数据再乘以一个新的可以训练的权重矩阵W,也就是说通过这个W来得到不同的权重值),为了算出来的α的和为1,再用softmax算一下。为了得到的α够稳定,再采取多头注意力机制(其实就是不相互影响的多算几次,取总体)。

注意力机制的优点:

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值