GRAPH ATTENTION NETWORKS
ICLR2018
利用masked self-attentional layers来解决基于图卷积或其近似的先前方法的缺点。通过堆叠节点能够参加邻域特征的层,隐式的向邻域中不同节点指定不同权重,不需要任何类型的高耗的矩阵操作(例如反转)或者取决于了解图表结构前期。同时解决了spectral-based的GNN的几个关键挑战,并使GAT容易地适用于归纳以及转换问题。
GAT ARCHITECTURE
GRAPH ATTENTIONAL LAYER
层的输入:一组节点特征, h = { h ⃗ 1 , h ⃗ 2 , . . . , h ⃗ N } , h ⃗ i ∈ R F {\bf h}=\{
{\vec{h}_1},{\vec{h}_2},...,{\vec{h}_N}\},{\vec{h}_i}\in{\Bbb R}^F h={
h1,h2,...,hN},hi∈RF,N是节点数,F是每个节点的特征数(对应的特征向量维度)。
每层产生一组新的节点特征,输出: h ′ = { h ⃗ 1 ′ , h ⃗ 2 ′ , . . . , h ⃗ N ′ } , h ⃗ i ′ ∈ R F ′ {\bf h'}=\{
{\vec{h}_1'},{\vec{h}_2'},...,{\vec{h}_N'}\},{\vec{h}_i'}\in{\Bbb R}^{F'} h′={
h1′,h2′,...,hN′},hi′∈R