当数据的结构与底层图的结构不兼容时,图神经网络会遇到困难。许多图学习数据集和基准测试都默认数据同质性(即相邻节点的特征或标签相似,或者用信号处理术语来说,是“平滑”的)。在这种情况下,即使是简单的低通滤波(例如取邻居的平均值)也能很好地工作。早期的基准测试,包括现在广泛使用的Cora数据集,都是在具有很高同质性的图上进行的,使得对图神经网络的评估变得“太容易”。
同质性Homophilic数据集(左图)和异质性heterophilic数据集(右图)。在同质性数据集中,节点的特征或标签的结构与图的结构兼容(即节点与其邻居“相似”)。相似的节点用相同的颜色表示
然而,当处理异质性数据时,许多模型显示出令人失望的结果,这种情况下需要使用更细致的聚合方式。在这种情况下观察到的两种典型现象是要么完全避免使用邻居信息(因此GNN基本上变成了节点级别的多层感知机),要么出现“过度平滑 oversmoothing”现象,即GNN的每一层节点表示变得更加平滑,最终崩溃成为一个单点。后一种现象在同质性数据集中也会出现,并且似乎是某些类型的MPNNs(信息传递形图神经网络)更基本的问题,使得实现深度图学习