深度学习:GAT

原论文
详细解释:E:\组会汇报\2021.11.5汇报-GAT\20211105稿子
可参考:详细介绍gac及改进过程

来源:对于GCN的改进

注意力机制

深度学习中的注意力机制从本质上讲和人类的选择性视觉注意力机制类似,核心目标也是从众多信息中选择出对当前任务目标更关键的信息。

GCN局限

  • 难分配不同的权重给不同的neighbor.
    这一点限制了模型对于空间信息的相关性的捕捉能力,这也是在很多任务上不如GAT的根本原因。

在GAT中,图中的每个节点可以根据邻节点的特征,为其分配不同的权值

  • GCN结合临近节点特征的方式和图的结构相关
    这局限了训练所得模型在其他图结构上的泛化能力。

GCN局限有: 难处理动态图; 难分配不同的权重给不同的neighbor.其实GAT是GNN的改进, 与GCN类似, 只是它是基于self-attention的图模型.

区别

核心区别在于如何收集并累和距离为1的邻居节点的特征表示。

图注意力模型GAT用注意力机制替代了GCN中固定的标准化操作。
本质上,GAT只是将原本GCN的标准化函数替换为使用注意力权重的邻居节点特征聚合函数

目的

GAT与GCN同样也是一个特征提取器,针对的是N个节点,按照其输入的节点特征预测输出新的节点的特征。

GAT特点

  • 1图中的每个节点可以根据邻节点的特征,为其分配不同的权值
  • 2只与相邻节点有关,即共享边的节点有关,无需得到整张图的信息:
    (1)该图不需要是无向的(如果边缘j → i不存在,我们可以简单地省略计算α i j;
    (2)它使我们的技术直接适用于inductive learning——包括在训练期间完全看不见的图形上的评估模型的任务。

基本思想

根据每个节点在其邻节点上的attention,来对节点表示进行更新。

过程

本文: 对不同的相邻节点学习分配相应的权重, multi-head多头的Attention结构, 计算注意力系数

对于顶点i , 逐个计算它的邻居和i 之间的相似系数:
在这里插入图片描述
即先用共享参数W 对顶点进行增维, 后拼接(concatenate)两个特征, 通过映射函数g(.) 将高维特征映射到一个Attention实数上.

通过对 i 的邻居进行softmax, 就可以得到(学习出)节点间的关系系数:
在这里插入图片描述
加权求和 aggregate

一般来说,聚合方式一般将邻居传来特征进行加权求和, 即可更新本节点的特征:
在这里插入图片描述
本文中增强了集合的方式, 采用 K 个注意力机制, 即用了K种邻居加权方式, 来更新本节点特征. 即Attention中的multi-head思想:
在这里插入图片描述

模型比较

案例:论文cora

GCN-dgl

代码位置:E:\项目例程\GCN\论文\代码位置

数据展示

在这里插入图片描述

结果

在这里插入图片描述
官网:
代码:E:\项目例程\GCN\论文\gcn_dgl_官网
在这里插入图片描述

GAT-dgl

代码:

结果

在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值