GAT:GRAPH ATTENTION NETWORKS

GAT(Graph Attention Networks)是ICLR2018提出的一种解决图卷积方法缺点的模型,通过自我注意力机制动态地为邻域节点分配权重,无需矩阵操作或预先了解图结构。GAT架构包括图注意力层,通过线性变换和注意力系数计算,保留节点特征并允许在归纳和转换问题中应用。
摘要由CSDN通过智能技术生成

GRAPH ATTENTION NETWORKS

ICLR2018


利用masked self-attentional layers来解决基于图卷积或其近似的先前方法的缺点。通过堆叠节点能够参加邻域特征的层,隐式的向邻域中不同节点指定不同权重,不需要任何类型的高耗的矩阵操作(例如反转)或者取决于了解图表结构前期。同时解决了spectral-based的GNN的几个关键挑战,并使GAT容易地适用于归纳以及转换问题。

GAT ARCHITECTURE
GRAPH ATTENTIONAL LAYER
层的输入:一组节点特征, h = { h ⃗ 1 , h ⃗ 2 , . . . , h ⃗ N } , h ⃗ i ∈ R F {\bf h}=\{ {\vec{h}_1},{\vec{h}_2},...,{\vec{h}_N}\},{\vec{h}_i}\in{\Bbb R}^F h={ h 1,h 2,...,h N},h iRF,N是节点数,F是每个节点的特征数(对应的特征向量维度)。
每层产生一组新的节点特征,输出: h ′ = { h ⃗ 1 ′ , h ⃗ 2 ′ , . . . , h ⃗ N ′ } , h ⃗ i ′ ∈ R F ′ {\bf h'}=\{ {\vec{h}_1'},{\vec{h}_2'},...,{\vec{h}_N'}\},{\vec{h}_i'}\in{\Bbb R}^{F'} h={ h 1,h 2,...,h N},h iR

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值