图神经网络实战(8)——图注意力网络(Graph Attention Networks, GAT)

本文深入探讨了图注意力网络(GAT),它通过自注意力机制改进了图卷积网络(GCN)。文章详细介绍了GAT的四个关键步骤:线性变换、激活函数、Softmax归一化和多头注意力。此外,通过实例展示了如何使用NumPy和PyTorch Geometric实现GAT,并在Cora和CiteSeer数据集上进行训练,对比了GAT与GCN的性能。实验结果表明,GAT在节点分类任务上表现优越。
摘要由CSDN通过智能技术生成

0. 前言

图注意力网络 (Graph Attention Networks, GAT) 是对图卷积网络 (Graph Convolutional Network, GCN) 的改进,提出了一种通过自注意力 (self-attention) 过程计算的加权因子,而不是使用静态的归一化系数。自注意力过程也是最成功的深度学习架构之一——Transformer 的核心,TransformerBERTGPT-3 广泛应用。GAT2017 年由 Veličković 等人提出,凭借其出色的性能,已成为最受欢迎的图神经网络 (Graph Neural Networks, GNN) 架构之一。
在本节中,我们通过四个步骤了解图注意力层的工作原理,这是理解自注意力工作原理的绝佳示例。了解了理论知

评论 62
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

盼小辉丶

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值