代码:GitHub - graphdeeplearning/benchmarking-gnns: Repository for benchmarking graph neural networks
论文原文阅读总结:
用到图卷积的叫GCN,传统理论的叫GNN/WL-GNNs
一、Introduction
1、Message-passing GCN 效果要比经典WL-GNN好
2、GCN依赖稀疏矩阵,更省计算和内存
3、各向异性的GCN效果比各向同性的GCN效果好,边的特征的学习对事件节点的特征在信息传递中效果有很大提升。各向异性的模型值得研究
4、用拉普拉斯特征矩阵对图位置编码,能够克服GCN的低结构表达的理论限制,效果有明显提升
二、Benchmarking GNNS
1、Graph-agnostic NNs perform poorly.(MLP没有GNN表现好)
2、GCNs outperform WL-GNNs on the proposed datasets.(GCN比WL-GNN表现好)
3、Anisotropic mechanisms improve GCNs.(各向异性的机制可提升GCN)
4、3WL-GNNs perform the best among their class.(GNN里面3WL-GNN效果最好)
5、Laplacian eigenvectors as positional embeddings.
6、Edge representations improve link prediction.