2020-WWW-Heterogeneous Graph Transformer

Abstract

  • 同构的图网络用于表示异构的数据可能不够适用。本文提出了异构图transformer对于异构数据进行建模。
  • 分别对于三个问题进行解决:模型异构性,图动态特性以及web-scale图数据。第一个使用节点和边特定类型的参数依赖,构建交互异构注意力。第二个提出了相对时序编码机制,第三个聚焦于训练效率方面。在这里我们聚焦于第一个方面,如何对图的操作。
  • 对公开学术网络的图数据集(大规模图)进行实验,相对于SOTA效果提升了9-21个百分点

Introduction

  • 一个meta-path的例子

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

Method

本文提出了异构图transformer,主要思想是使用异构图中的meta relation参数化(parameterize)异构交互注意力,消息传播以及聚合的参数矩阵。

1 整体架构:
在这里插入图片描述
目标:聚合源节点s的信息形成一个具有上下文表示的目标节点t。

  • 可以将这个过程分为三个阶段:
    • Heterogeneous Mutual Attention
    • Heterogeneous Message Passing
    • Target-Specific Aggregation

2 通常基于注意力的GNN的范式
在这里插入图片描述
分别包括了Attention,Message以及Aggregate。
以GAT为例子:
在这里插入图片描述
其假设每一个节点都是同一个类型的,因此在计算过程中都使用相同的权重。对于异构图来说,每一个类型可能包含了不同的特征分布,因此用相同的权重可能不合适。

3

  • 基于这个motivation,本文使用了异构交互注意力。其想通过meta-relation计算交互注意力,在transformer的基础上改动,主要的不同在于,原始的transformer对于所有的单词都使用同一个映射函数,而本文通过meta relation对于不同的类型设置不同的权重。并且将目标节点作为Query vector,源节点作为Key vector,基于此计算注意力。公式如下所示:
    在这里插入图片描述
    对于分布不同的建模。以及异构图的一个特点是节点之间的边有着不同类型的关系,这里不同于原始的transformer直接计算dot-product,而是添加了基于边的类型的可训练的矩阵,用于捕获不同的类型的边的语义关系。并且添加了一个先验张量表示每一个meta-relation的重要程度。
  • Heterogeneous Message Passing

在这里插入图片描述

  • target-specific aggregation
    在这里插入图片描述
    聚合源节点更新表示,并且对表示进行类型转换,以及残差连接
    在这里插入图片描述
    4 RTE

在这里插入图片描述

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值