
论文阅读:Recipe for a General, Powerful, Scalable Graph Transformer
Graph Transformers(GTs)通过允许节点对图中所有其他节点进行注意(全局注意力),从而缓解了与稀疏消息传递机制相关的基本限制。由于图结构不像图像一样有着标准化的位置关系,因此全局注意力位置编码要求比较高标准的全局注意力会导致图中有NNN个节点和EEE条边时的二次计算开销ON2O(N^2)ON2,这使得GTs仅限于处理最多几百个节点的小型图。在本文中,提出了一种构建通用、强大且可扩展的图变换器(GPS)的方案。
























