GNN-图卷积模型-直推式&归纳式-2017:GAT【消息传递(前向传播):聚合函数+更新函数】【聚合函数:attention(邻域所有节点根据注意力机制进行加权)】【训练更新函数的参数】【同质图】

本文详细介绍了GAT(Graph Attention Networks),一种克服GCN局限性的图神经网络模型。GAT通过注意力机制为邻域节点分配不同权重,适合处理有向图和归纳式任务。模型结构简单且高效,适用于直推式和归纳式学习,尤其在节点分类任务中表现出色。GAT的关键创新包括图注意力层、多头注意力层和消息传递机制,提供了一种有效处理图结构数据的方法。
摘要由CSDN通过智能技术生成

一、概述

Graph数据结构的两种特征:
当我们提到Graph或者网络的时候,通常是包含顶点和边的关系,那么我们的研究目标就聚焦在顶点之上。而除了结构之外,每个顶点还有着自己的特征,因此我们图上的深度学习,无外乎就是希望学习上面两种特征。

GAT(graph attention networks)网络特点:

  • 它与先前方法不同的是,它使用了masked self-attention层。

  • 原来的图卷积网络所存在的问题需要使用预先构建好的图。而在本文模型中,图中的每个节点可以根据邻域节点的特征,为其分配不同的权值。

  • GAT结构很简单,功能很强大,模型易于解释。

  • 文章的实验证明,GAT模型可以有效地适用于基于图的归纳学习问题与直推式学习问题。

  • GAT是高效的。相比于其他图模型,GAT 无需使用特征值分解等复杂的矩阵运算。

  • 单层 GAT 的 时间复杂度为 O ( ∣ V ∣ F

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值