睡了一下午,晚上就完全不想学习了。。。卡也不想打考试也不想复习了。。。。
以及感觉边看边记笔记这样比较好。
消息传递范式
有了这个图算是比较明朗了!选定A为target node之后,先更新其他邻接节点,最后更新A。
消息传递图神经网络的数学表述:
其中那个方框框表示可微分,具有排列不变性(函数输出结果与输入参数的排列无关)
γ
\gamma
γ和
ϕ
\phi
ϕ表示可微分的函数。如MLPs.
note:此次组对学习约定,节点属性data.x是节点的第0层节点表征,第h层节点表征经过一次节点间的信息传递产生第h+1层的节点表征。不过节点属性也不单指data.x
MessagePassing基类初步分析
这个基类封装消息传递的运行流程(看名字也看出来了),构造一个最简单的消息传递图神经网络类,只需要定义message()方法(
ϕ
\phi
ϕ),update()(
γ
\gamma
γ)以及使用的消息聚合方案(aggr=“add”“mean”“max”),一下是具体的类讲解,就截个图=-=:
MessagePassing子类示例——GCNConv
首先看一下GCNConv的数学定义
deg(i)是度的意思。。。然后求和符号那里,表示j属于i的邻接节点和i自身。不得不说书读百遍其义自见,第一遍时候一头懵,现在已经看明白公式了。
所以这个公式可分为以下步骤:
然后代码实现如下图所示:
另补充torch.nn.linear():可直接生成用于线性运算的参数(weights,bias),其中weights的维数是[out_channel, in_channel],bias的参数是out_channel,前者转置后才能与输入线性运算的参数相乘。
简单总结一下MessagePassing基类的运行流程,一开始以为自己懂了结果考虑这个问题时候又懵逼了。。。。不过还好有propagate函数的源码,运行流程可以说就是这个函数的运行流程啦:
Note:fuse就是检查有无message_and_aggregate()的
1、首先检查有无message_and_aggregate()和数据格式正确与否,注意,message_and_aggregate()是优于message()和aggregate()的。
2、进行message_and_aggregate,然后为update创造参数
3、update,即进行最后的聚合(应该也可以其他)运算。
=-=又有问题了,毕竟没跑代码,然鹅必须下班了。。下次再拖到最后不是人,淦