导读:目前GNNs通过利用self-attention机制已经取得较好的效果。但目前的注意力机制都只是考虑到相连的节点,却不能利用到能提供图结构上下文信息的多跳邻居(multi-hop neighbors)。 因此提出 Direct multi-hop Attention based Graph neural Network (DAGN),在注意力机制中加入多跳信息,从邻居节点扩展到非邻居节点,增加每一层网络中的感受野(receptive field).下面介绍的该文章的作者单位包括京东AI Research和斯坦福大学,通讯作者是图学习巨佬 Jure Leskovec,于2020年10月2号放在arXiv上.
本文来自知乎作者@周大侠,已授权发布,如需转载请联系博文作者
原文:https://zhuanlan.zhihu.com/p/265787426,以下内容稍作改动
论文题目:Direct multi-hop Attention based Graph neural Network
https://arxiv.org/abs/2009.14332
attention机制中的注意力图怎么画_注意力机制 | 图卷积多跳注意力机制 | Direct multihop Attention based GNN...
最新推荐文章于 2024-06-06 14:40:29 发布