背景 通过在图算法中引入self-attention的机制,解决图卷积中之前的一些问题,并且保证了时间和空间复杂度线性于图的边或者节点。 图注意力网络计算方式 1.图网络每一层的输入和输出都是每个节点的特征向量。 2.每条边的注意力权重计算 3.左图是self-attention权重的计算,右图是某个节点multi-head-attention的计算方式,加权多个head之后求平均。 4.multi-head-attention计算公式。