GNN图神经网络 如何同时学习属性信息和结构信息?

1.在解决这个问题之前,先回归到GNN的定义。

GNN Graph Neural Network.

图神经网络。

或者具体一点:图卷积神经网络。

图卷积的运算定义:x1*x2 =  IGFT(GFT(x1)\tiny \bigodotGFT(x2)) (式1)

其中\tiny \bigodot表示哈达玛积,继续对上式进行推导:

把x1和x2进行图傅里叶变换:x1 = V^{t}x_{1}(式2)

其中V代表图G的拉普拉斯矩阵的正交对角化对应的特征矩阵:L = V \wedge V^{T}(式3)

继续推导式2得到:x1*x2 = (Vdiag(\tilde{x}_1V^{T})x_{2} (式4)

令 H_{\tilde{x}_{1}} = Vdiag({\tilde{x}_{1}})V^{T}显然H_{\tilde{x}_{1}}是一个图位移算子,其频率响应为X1的频谱,于是可得:

x1*x2= H_{\tilde{​{x}_1}}{x}_2(式5)

因此,两图信号卷积总能转化为对应形式的图滤波运算,从这角度看,图卷积等于图滤波。

2.图数据的内在规律

属性+结构

以社交网络为例:

属性为用户的年龄、性别。

结构为互相的连接信息,如社交大V的出度与入度都很高。

3.GCN的设计怎么去适配图数据的内在规律?

GCN对图数据有端对端的学习能力。

GCN对于属性信息和结构信息的学习体现在其核心计算公式上:\tilde{L}_{sym}XW参考文献,GCN封神之作icon-default.png?t=LA92https://openreview.net/pdf?id=SJU4ayYgl),这一计算过程可以被分拆成两步:

  1. XW是对属性信息的仿射变换,学习了属性之间的交互模式。
  2. \tilde{L}_{sym}从空域来看是聚合邻居节点的过程,代表了☑节点局部结构信息的编码。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值