【GNN】图神经网络学习记录

本文深入探讨了图神经网络(GNN)的基本原理,包括groundtruth、embedding和邻接矩阵等核心概念。GNN通过节点的聚合与更新操作,捕获图结构中的信息,用于预测未知节点标签。其特点是结果对节点重排保持不变。GNN的迭代过程允许节点获取高阶邻接信息,并通过损失函数进行优化。总结了GNN的一句话表述:近朱者赤,近墨者黑。
摘要由CSDN通过智能技术生成

前置知识

ground truth:标准答案
GNN是在图结构上应用的CNN
目的是预测没有ground truth节点的标签值
embedding:向量映射
向量是很重要的概念
Adjacency Matrix邻接矩阵:i与j是否有边

图神经网络

图的特性

图包含的信息:节点、边、连接关系、全局图。这些信息在GNN中都是用embedding向量来表示的。
p.s. 图的连接性由邻接矩阵表示。对图做任意的交换变换、图的结果都不变(同构)
下图用向量来表示Nodes、Edges、Adjacency List、Global。
在这里插入图片描述

GNNs

那么GNN在图节点重新排序后,结果不变这一前提下,对节点、边、全局上下文这三个属性进行了可以优化的变换。
GNN的输入是图、输出也是图(GIGO)
参考b站某视频浅入门了GNN的原理【简单粗暴带你快速理解GNN-哔哩哔哩】 https://b23.tv/GHyFAlu

在这里插入图片描述
GNN一句话表示即近朱者赤,近墨者黑

步骤

聚合:计算邻居信息N,这里一般指邻居信息,公式中的权重是优化的方向
更新:根据激活函数,权重、参数blabla更新节点的特征值
循环:不断循环,使得某个点可获得其n阶节点的特征值,直至得到每个节点的feature
最后计算loss(预测值与真实值,用损失函数表示),并进行优化(例如梯度下降、最小二乘。。。)这里也不太清楚,后续继续补充

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值