【学习小记】消息传递图神经网络

本文详细探讨了消息传递范式在图神经网络(GNN)中的应用,重点解析了GCNConv层的数学定义和实现。通过图解和代码示例,阐述了节点间信息的传递和更新过程,包括message、aggregate和update步骤。同时,提到了torch.nn.linear()在模型中的作用,以及如何构建基于MessagePassing基类的图神经网络。
摘要由CSDN通过智能技术生成

睡了一下午,晚上就完全不想学习了。。。卡也不想打考试也不想复习了。。。。

以及感觉边看边记笔记这样比较好。

消息传递范式

节点更新过程
有了这个图算是比较明朗了!选定A为target node之后,先更新其他邻接节点,最后更新A。

消息传递图神经网络的数学表述:
在这里插入图片描述
其中那个方框框表示可微分,具有排列不变性(函数输出结果与输入参数的排列无关) γ \gamma γ ϕ \phi ϕ表示可微分的函数。如MLPs.

note:此次组对学习约定,节点属性data.x是节点的第0层节点表征,第h层节点表征经过一次节点间的信息传递产生第h+1层的节点表征。不过节点属性也不单指data.x

MessagePassing基类初步分析

这个基类封装消息传递的运行流程(看名字也看出来了),构造一个最简单的消息传递图神经网络类,只需要定义message()方法( ϕ \phi ϕ),update()( γ \gamma γ)以及使用的消息聚合方案(aggr=“add”“mean”“max”),一下是具体的类讲解,就截个图=-=:
维度的意义这些还是不太懂,大概需要一个数据集来康康
在这里插入图片描述
在这里插入图片描述

MessagePassing子类示例——GCNConv

首先看一下GCNConv的数学定义
在这里插入图片描述
deg(i)是度的意思。。。然后求和符号那里,表示j属于i的邻接节点和i自身。不得不说书读百遍其义自见,第一遍时候一头懵,现在已经看明白公式了。

所以这个公式可分为以下步骤:
截图省事些=-=
然后代码实现如下图所示:
在这里插入图片描述
在这里插入图片描述
另补充torch.nn.linear():可直接生成用于线性运算的参数(weights,bias),其中weights的维数是[out_channel, in_channel],bias的参数是out_channel,前者转置后才能与输入线性运算的参数相乘。

简单总结一下MessagePassing基类的运行流程,一开始以为自己懂了结果考虑这个问题时候又懵逼了。。。。不过还好有propagate函数的源码,运行流程可以说就是这个函数的运行流程啦:
在这里插入图片描述
Note:fuse就是检查有无message_and_aggregate()的
1、首先检查有无message_and_aggregate()和数据格式正确与否,注意,message_and_aggregate()是优于message()和aggregate()的。
2、进行message_and_aggregate,然后为update创造参数
3、update,即进行最后的聚合(应该也可以其他)运算。

=-=又有问题了,毕竟没跑代码,然鹅必须下班了。。下次再拖到最后不是人,淦

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值