快速理解GNN、GCN、R-GCN、GAT

本文深入探讨了图神经网络(GNN)的基本流程及其在节点信息融合中的作用。GCN通过对称归一化解决了GNN中聚合权重的问题。R-GCN引入了关系意识的聚合,针对不同关系的节点进行信息处理。GAT则通过注意力机制赋予节点间不同的权重,增强了模型的表现力。这些技术广泛应用于节点分类和关联预测任务。
摘要由CSDN通过智能技术生成

写在前面:仅用于记录自己学习

快速理解GNN、GCN、R-GCN、GAT

观看视频链接GNN
观看视频链接GCN
观看视频链接R-GCN
观看视频链接GAT

GNN

GNN的流程:聚合、更新、循环
在这里插入图片描述
a、b、c的常数值可以自己手动定,也可以是模型训练来定。所以,a、b、c的常数值设置经常是文章的改进点。
将邻居的信息结合到自己身上来,作为自己信息的补足。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

GCN

与GNN相比,在聚合的过程中有了特殊的变化,GCN解决上面GNN中聚合部分的a、b、c值的设定问题。
在这里插入图片描述
在这里插入图片描述
平均法存在的问题:若A的邻居只有B,但是B有许多邻居,那么, 利用公式的话,利用从B聚合来的信息对于A来说其实是失真的,有问题的,A的工资难道就是B的工资吗?显然不合理。
在这里插入图片描述

~A是邻接节点的信息加上自身信息
~D的度
在这里插入图片描述
对称归一化拉布拉斯矩阵,解决了问题。
在平均法的基础上,加了每个节点的度,做了个对称归一化。

R-GCN

在这里插入图片描述
在这里插入图片描述
根据不同的关系分别聚合不同的节点。
j是i的邻居节点,Ni是i的邻居,Nir是i节点在r关系下的邻居节点,cir可以自己设定或通过邻居节点数计算,w0hi是上一层自己的特征,hj是我在r关系下的节点,Wr是r关系下的关系矩阵,训练的矩阵,

在这里插入图片描述
在这里插入图片描述
节点分类、关联预测
DistMult:比如将两个节点的特征拼起来;也可是将两个特征直接乘起来得到一个一值(此处不是点乘)

GAT

在这里插入图片描述

W矩阵的作用是对A、B进行变形的。比如A现在是512维,想变成256,则W就是一个512*256的矩阵,长向量变成短向量。

在这里插入图片描述
多头:
在这里插入图片描述

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值