本文收录于ICLR2021,作者来自北大。如何有效的挖掘和完美的利用不同跳邻域的信息是深图模型设计的关键,在这篇文章中,作者将AdaBoost引入到网络的计算中,提出了一种新的类似于RNN的深度图神经网络结构;所提出的图卷积网络AdaGCN能够有效地从高阶邻居中提取信息,并以AdaBoost的方式将来自不同跳的邻居的信息整合到网络中。源码在这
Introduction
还是简单概括一下,这里面虽然没有什么东西,但有时也会蹦出来一些新奇的理解,所以能看尽量看一下:尽管当前的GNN模型取得了很大的成功,但原则上可以获取更多信息的多层GCN却导致了更差的性能,过平滑从理论上很好的解释了这个原因:GCN性能优异的原因是每一次GCN都是一次拉普拉斯平滑的应用,在GCN中反复应用拉普拉斯平滑会使得每个节点混合来自不同簇的节点特征,使得这些节点无法区分,这也意味着过多的图卷积层叠加,使得每个节点在GCN的嵌入倾向于收敛于某个值,使得分类变得更加困难。这些浅层模型架构很难让一个节点捕获远跳邻域的信息,在此基础之上,作者提出了将boosting算法引入深图模型,其目的是对来自于不同邻域的信息进行高效的探索和有效的组合。
具体来说:在本文中,作者将AdaBoost以一种新颖的