消息传递范式多年来一直是图深度学习的"战马",使得图神经网络在从粒子物理学到蛋白质设计等广泛应用中取得了巨大成功。从理论角度来看,它建立了与Weisfeiler-Lehman层次结构的联系,允许分析GNN的表达能力。我认为当前图深度学习方案中"以节点和边为中心"的思维方式会带来无法逾越的限制,阻碍该领域未来的进展。作为一种替代方案,我提出了受物理启发的"连续"学习模型,它开启了在图机器学习中迄今为止在微分几何、代数拓扑和微分方程领域大部分未被探索的新工具。
图是一种抽象复杂关系和相互作用系统的便捷方式。从社交网络到高能物理再到化学,图结构数据的重要性日益增加(所有这些领域都涉及相互作用的对象,如人、粒子或原子)。一系列在这些应用中取得的初步成功以及产业的采用,使得图深度学习成为机器学习研究中最热门的话题之一。图神经网络(GNNs)是图机器学习方法中最常见的方法,也是目前最流行的神经网络架构之一。
图可以抽象复杂的关系和相互作用系统。从左到右展示了分子图(表示形成分子的原子之间的化学键)、社交网络(表示用户之间的关系和互动)以及推荐系统(表示用户和产品之间的关联)。
图神经网络(Graph Neural Networks,GNNs)的工作原理如下:它以具有节点和边特征的图作为输入,并计算一个函数,该函数既依赖于特征,又依赖于图的结构。消息传递型的GNNs(也称为MPNN)通过