图注意力网络_GAT:图网络下的注意力机制(详解)

168c0e6107b44d1a01ee2eacea8f93ca.png

研究图上的异常检测~

表示学习入门萌新~

跪求指点交流~

1.介绍

GNN由一个迭代的过程组成,传播节点的状态直至平衡,紧接着跟着一个神经网络,基于状态产生输出。目前的方法分成了2类,基于谱的方法和非基于谱的方法。

一方面,基于谱的方法有很大成功,在【Bruna et al. (2014)】卷积操作被定义在傅里叶域,通过计算图拉普拉斯矩阵的特征值,导致计算密集以及没有了cnn那种局部的过滤器。[ Henaff et al. ]提出了一种参数化的普过滤器,来让他们可以局部考虑。【, Kipf & Welling 】提出通过通过计算图的拉普拉斯矩阵的切比雪夫来近似过滤器。最后kf把操作限制在了一步。

非谱聚类的方法:直接在空间亲近的邻居执行操作。重大的挑战在于维护一个操作算子,可以处理不同大小的邻居,像cnn那样。包括为每个节点学习一个矩阵,利用转移矩阵的幂次去定义,GraphSage 用inductive的方法计算节点表示,通过采样固定数目的邻居,然后执行操作,大规模上表现很好。

attention在越来越多领域表现很好。

基于以上工作:提出了基于注意力的结构来在图结构上做分类。想法是在图中,通过拓展邻居信息,计算节点的隐层表示。

特点。

1.快速。(计算上下文重要性的时候,

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值