图学习——05.GTN(Graph Transformer Network)

Graph Transformer Network

在本文中,我们提出了能够生成新图结构的Graph Transformer Network(GTN),其中包括识别原始图上未连接节点之间的有用连接,同时在端到端学习新图上的有效节点表示形式

最近的一种补救方法是手动设计元路径,这些元路径是与异构边连接的路径,并将异构图转换为由元路径定义的其次图表示,而HAN通过将异构图转换为由元路径构造的其次图来学习图表示学习。但是,这些方法由领域专家手动选择元路径,因此可能无法捕获每个问题的所有有意义的关系,同样,元路径的选择也会显著影响性能。 与这些方法不同,我们的Graph Transformer Networks可以在异构图上运行并为任务转换图,同时以端到端学习的方式转换图上的节点表示形式

三个概念

T^vT^e分别表示节点类型和边的类型,比如下图ACM数据集,有四种边(因为是无向图),PS,PA,AP,SP

Ak表示第k种类型的边的形成邻接矩阵,比如下图ACM数据集,里面有三种节点P、A、S,P和A形成的边类型的邻接矩阵就是3025 X 5835维的,P和S形成的边类型的邻接矩阵就是3025 X 56维的,最终是为了将所有邻接矩阵拼接得到最后的矩阵,但是我们现在得到了邻接矩阵的维度都是不一样的,为了统一矩阵的维度,将所有的矩阵变成N X N维的,N=3025+5835+56,然后每种边的表示都是在对应位置右边用1表示,其他位置为0即可

在这里插入图片描述

那如何构建特征矩阵X
一共有三个特征节点,paper,author,subject,每个文章都有自己的特征,author就用文章来表示,比如author1写的paper1和paper2,那就将paper1和paper2拼接在一起得到author1的表示(也可以用max或者Pooling等运算),subject也是同理。
在这里插入图片描述

GNN如何组合多元的meta-path呢?

使用矩阵乘法
要得到meta-pathPAP的表示,可以用PA矩阵乘上AP矩阵
PA*PA得到的结果是空
AP*PA=AA得到的结果和P无关,对结果无影响
在这里插入图片描述

算法流程:
得到每种边的特征矩阵之后,设置一个可学习参数W1,包含α1,α2等,然后对W1做softmax,将对应的α和对应的邻接矩阵相乘得到Q1,同样的,设置一个可学习参数W2,得到Q2,然后Q1*Q2得到A1,A1就是聚合了一次meta-path之后得到的矩阵
在这里插入图片描述
可以再引入W3,得到Q3,在和A1相乘得到一个聚合两次矩阵,以此类推,通过这种方式,可以学习任意长度的元路径结构
得到A其实就是得到了点跟点之间的关系,之前也有每个点的特征值,这两者经过一个GCN就得到了每个点对应的特征,然后经过一个分类器就得到了每个点最终所属的类别

在这里插入图片描述
在这里插入图片描述

  • 2
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值