graph笔记

该笔记探讨了在图神经网络(GCN)中,如何通过Jumping Knowledge Networks来融合不同层次的信息。传统GCN层数增加会获取更全面信息,但可能导致过平滑问题。论文提出的方法是使用concat max-pooling和LSTM attention,通过学习各层的注意力得分来加权求和各层表示,从而得到最终的图表示。实验结果显示,这种方法在多个数据集上表现出色,但在较大的PPI数据集上,LSTM attention的效果不佳。
摘要由CSDN通过智能技术生成

Jumping Knowledge Networks

论文:Representation Learning on Graphs with Jumping Knowledge Networks

1、传统GCN在不同阶数上会有不同表现

不同阶上GCN卷积

随着阶数增加,所获取的信息更加全面,也就可以解释为啥大部分论文的GCN的层数只有2层,而之后提出的randomwalk的cotraining也依旧会导致这个问题当random wallk的步数无穷时

本文融合了所有层的表示以获取不同层面的表示,融合方式为concat max-pooling以及LSTM attention(为每一层学习一个 attention score,同时,这个score代表了各个层的重要系数。attention score 的学习是将各个层的表达依次送入一个双向LSTM,这样每个层都有一个前向表达和后向表达,然后将这两个表达拼接到一起送进一个 linear 层拟合出一个score,然后将这个score进行softmax 归一化操作就得到了 attention score,最后对各层表达依据重要系数进行加权求和得到最终表达。)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值