图神经网络(二十三)AdaGCN: Adaboosting Graph Convolutional Networks into Deep Models

本文提出AdaGCN,一种融合AdaBoost的深度图神经网络结构,有效结合不同跳邻域信息。AdaGCN通过递归优化减少过平滑问题,提高节点分类性能。对比GCN、SGC和JK,AdaGCN在结构上有显著差异,与APPNP有连接。实验显示AdaGCN在半监督任务中表现出色。
摘要由CSDN通过智能技术生成

本文收录于ICLR2021,作者来自北大。如何有效的挖掘和完美的利用不同跳邻域的信息是深图模型设计的关键,在这篇文章中,作者将AdaBoost引入到网络的计算中,提出了一种新的类似于RNN的深度图神经网络结构;所提出的图卷积网络AdaGCN能够有效地从高阶邻居中提取信息,并以AdaBoost的方式将来自不同跳的邻居的信息整合到网络中。源码在这

Introduction

还是简单概括一下,这里面虽然没有什么东西,但有时也会蹦出来一些新奇的理解,所以能看尽量看一下:尽管当前的GNN模型取得了很大的成功,但原则上可以获取更多信息的多层GCN却导致了更差的性能,过平滑从理论上很好的解释了这个原因:GCN性能优异的原因是每一次GCN都是一次拉普拉斯平滑的应用,在GCN中反复应用拉普拉斯平滑会使得每个节点混合来自不同簇的节点特征,使得这些节点无法区分,这也意味着过多的图卷积层叠加,使得每个节点在GCN的嵌入倾向于收敛于某个值,使得分类变得更加困难。这些浅层模型架构很难让一个节点捕获远跳邻域的信息,在此基础之上,作者提出了将boosting算法引入深图模型,其目的是对来自于不同邻域的信息进行高效的探索和有效的组合。

具体来说:在本文中,作者将AdaBoost以一种新颖的

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

码匀

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值