目录
2.2 Comparisons To Related Work
1 Introduction
Graph Attention Networks又称为GATs,一种基于注意力的体系结构来执行图结构数据节点分类的网络。其思想是计算图中每个节点的隐藏表示,通过关注它的邻居,遵循一个自我注意策略。注意架构有几个有趣的特性:
(1)操作是有效的,因为它可以在节点对之间并行;
(2)可以通过指定邻居的任意权值应用于具有不同程度的图节点;
(3)模型直接适用于归纳学习问题,包括模型必须推广到完全看不见的图的任务。
在四个具有挑战性的基准上验证了提出的方法:Cora、Citeseer和Pubmed引文网络以及诱导蛋白质相互作用数据集,实现或匹配了最先进的结果,突出了在处理任意结构图时基于注意的模型的潜力。
2 GAT Architecture
2.1 Graph Attentional Layer

为了稳定自我注意力机制的学习过程,将注意机制扩展到使用多头注意。具体来说,K个独立的注意机制执行方程的变换,然后将它们的特征拼接(concat)起来,得到以下输出特征表示:
,其中
表示拼接操作,
为由第k个注意机制(
)计算的归一化注意力系数,
为相应的输入线性变换的权重矩阵。请注意,在此设置中,最终返回的输出
将由每个节点的
特性(而不是
)组成。
然而,执行多头注意网络的最终(预测)层,采用拼接(concat)方法不再是明智的选择,可以采用平均(avg)操作,并且延迟应用最终非线性函数,即。
2.2 Comparisons To Related Work
1、计算高效的:自注意层的操作可以在所有边缘上并行化,且输出特征的计算也可以在所有节点上并行化,不需要特征分解或类似昂贵的矩阵操作。单一的GAT注意力头计算输出特征的复杂度为,这种复杂性与图卷积网络(GCNs)等基线方法相当。
2、模型可将不同的重要性分配给同一邻域的节点,实现模型容量的飞跃。此外,分析学习到的注意权重可能会带来可解释性方面的好处。
3、注意机制以共享的方式应用于图中的所有边,不依赖于对全局图结构或所有节点(特征)的预先访问(这是许多先前技术的限制)。
图不需要是无向的(如果边j→i不存在,可以简单地不计算
)
适用于归纳学习——包括在训练过程中完全看不见的图上进行评估的任务
3 Conclusions
图注意力网络(GATs),一种新型卷积风格的神经网络,它操作在图形结构的数据上,利用了掩码的自我注意层。图注意层的利用在这些网络计算效率高(不需要昂贵的矩阵操作,可并行在图中的所有节点);在处理不同大小的区域允许分配不同节点不同的重要性;不依赖于了解整个图结构从而解决许多理论问题与以前的基于光谱的方法。利用注意力的模型已经成功地在四个成熟的节点分类基准上实现或匹配了最先进的性能,包括转换和归纳(特别是用于测试完全不可见的图)。
图注意力网络有几个潜在的改进和扩展,可以作为未来的工作来解决,如一个特别有趣的研究方向是利用注意机制对模型的可解释性进行彻底的分析。此外,从应用程序的角度来看,将该方法扩展到执行图分类而不是节点分类也将是相关的。最后,将模型扩展到合并边缘特征(能够表明节点之间的关系)将能够解决更多种类的问题。