Simplifying Graph Convolutional Networks

"SGCN(Simplifying Graph Convolutional Networks)是GCN的一种简化形式,它提出GCN的关键在于邻近节点特征的聚合,而非非线性激活函数。通过删除非线性激活并保留最终的归一化操作,SGCN构建了一个线性模型。模型通过折叠邻接矩阵来表示,并用softmax函数进行分类输出。SGCN的表达式为Y^SGC=softmax(A~KXW){f{hatY}
摘要由CSDN通过智能技术生成

背景

对图神经网络的简化,WU F, ZHANG T, JR. A H S, et al Simplifying Graph Convolutional Networks. ICML

模型

SGCN (Simplifying Graph Convolutional Networks)是图神经网络的简化。 SGCN指出图神经网络对特征进行邻近节点聚合后相当于多层线性感知机。多层神经网络目的是通过拟合非线性函数划分不同的数据类别。SGCN假定非线性不是GCN层之间的关键,认为GCN最关键的是对于邻居特征的聚合操作。因此SGCN 删除GCN层之间的非线性激活函数,保留最终特征的归一操作,得到线性模型。表示为模型可学习的参数。 A ~ = D ^ − 1 2 A ^ D ^ − 1 2 {\bf{\tilde A}} = {{\bf{\hat D}}^{^{ - \frac{1}{2}}}}{\bf{\hat A}}{{\bf{\hat D}}^{^{ - \frac{1}{2}}}} A~=D^21A^D^21 A ^ = A + I {\bf{\hat A}} = {\bf{A}} + {\bf{I}} A^=A+I I {\bf{I}} I 表示单位矩阵。
Y ^ = s o f t m a x ( A ~ ⋯ A ~ A ~ X W ( 1 ) W ( 2 ) ⋯ W ( k ) ) {\bf{\hat Y}} = {\rm{softmax}}({\bf{\tilde A}} \cdots {\bf{\tilde A\tilde AX}}{\begin{matrix}{{}{}} {\bf{W}} \end{matrix}^{(1)}}{\begin{matrix}{{}{}} {\bf{W}} \end{matrix}^{(2)}} \cdots {\begin{matrix}{{}{}} {\bf{W}} \end{matrix}^{(k)}}) Y^=softmax(A~A~A~XW(1)W(2)W(k))

A ~ ⋯ A ~ A ~ {\bf{\tilde A}} \cdots {\bf{\tilde A\tilde A}} A~A~A~进行折叠,改写为 A ~ K {{\bf{\tilde A}}^K} A~K,最终 Y ^ S G C {{\bf{\hat Y}}_{{\rm{SGC}}}} Y^SGC被表示为:

Y ^ S G C = s o f t m a x ( A ~ K X W ) {{\bf{\hat Y}}_{{\rm{SGC}}}} = {\rm{softmax}}({{\bf{\tilde A}}^K}{\bf{X}}\begin{matrix}{{}{}} {\bf{W}} \end{matrix}) Y^SGC=softmax(A~KXW)
Y ^ S G C {{\bf{\hat Y}}_{{\rm{SGC}}}} Y^SGC表示SGC最终的分类输出结果, s o f t m a x ( ⋅ ) = e x i ∑ i e x i {\rm{softmax}}( \cdot ) = \frac{{{e^{{x_i}}}}}{{\sum\nolimits_i {{e^{{x_i}}}} }} softmax()=iexiexi

代码

https://github.com/ChenaniahMe/codes/tree/main/GNN/comsgcn

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值