Composition-based Multi-Relational Graph Convolutional Networks 多关系图神经网络 ICLR 2020

本文介绍了CompGCN,一种针对多关系有向图的图神经网络模型,它能同时学习节点和关系的表示。通过使用基向量组合表示关系, CompGCN降低了参数数量,并在链路预测、节点分类和图分类任务上展现出优越性能。
摘要由CSDN通过智能技术生成

在这里插入图片描述
论文来源:ICLR 2020
论文链接:https://arxiv.org/abs/1911.03082
代码链接:https://github.com/malllabiisc/CompGCN

1、引言

图神经网络已经成为图数据分析领域的经典算法了,各大顶会上相关的论文也层出不穷.但是,这些工作主要关注点都在如何在简单无向图上设计一个更新颖更复杂的模型,而没有从图数据的复杂程度来考虑.实际生活中的图往往更加复杂.比如,知识图谱上的有向多关系图.下面是一个知识图谱的例子,这里有多种节点,如London和United Kingdom;也有多种有向关系,如Born-in和Citizen-of.注意,这里的关系是有方向的,Born-in和Bord-in_inv是同一关系的两个方向.
在这里插入图片描述
可以看出,多关系图的建模是更符合实际也具有更高的应用价值.本文作者从实际的图数据特点出发,设计了一种针对多关系有向图的图神经网络CompGCN来同时学习节点和关系的表示.同时,为了降低大量不同类型关系带来的参数,这里作者设计了一种分解操作composition operation,将所有关系都用一组基的加权组合来表示. 这样用于描述关系的参数只和基的个数有关.

下图对比了几种图神经网络的特点,可以看看出:学习关系的表示是CompGCN独有的特点.
在这里插入图片描述
总的来说,本文的贡献有3点:

  • 设计了CompGCN模型,一种可以考虑多种关系信息的图神经网络框架,来同时学习节点和关系的表示.
  • 证明了CompGCN与之前的多关系GNN之间的联系.
  • 实验验证了CompGCN的有效性.

2、相关工作

首先,作者回顾了多关系图及多关系图神经网络的做法.

多关系图中的边可以表示为 ( u , v , r ) (u,v,r) (u,v,r),代表存在一条从节点 u u u指向节点 v v v的类型为 r r r的边,其中 r ∈ R r\in\mathcal{R} rR. 同时,也存在一个相应的反向边 ( u , v , r − 1 ) (u,v,r^{-1}) (u,v,r1).

多关系图神经网络,也是分别聚合特定关系 r r r下的邻居,
H k + 1 = f ( A ^ H k W r k ) H^{k+1}=f(\hat{A}H^kW_r^k) Hk+1=f(A^HkWrk)其中, W r W_r Wr是针对关系 r r r的参数矩阵.而经典的单关系GCN聚合公式如下, H k + 1 = f ( A ^ H k W k ) H^{k+1}=f(\hat{A}H^kW^k) Hk+1=f(A^HkWk)可以看出,两者主要差异就在 W r W_r Wr W W W. 假设关系的种类非常多,那么参数矩阵 W r W_r Wr的个数也会非常多,引入了非常多的参数,不利于模型学习.

3、模型CompGCN

本文综合考虑多关系图上的3种边类型: 有向边 R \mathcal{R} R,如 ( u , v , r ) (u,v,r) (u,v

  • 4
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 关系注意力网络(Relational Graph Attention Networks)是一种基于神经网络的模型,用于处理数据中的节点关系。它通过引入关系注意力机制,能够对节点之间的关系进行建模,并且能够自适应地学习节点之间的关系权重。这种模型在社交网络分析、推荐系统、自然语言处理等领域具有广泛的应用。 ### 回答2: 关系注意力网络是一种人工智能中的神经网络,它被设计用于学习节点之间关系的表示,并且在推理任务中表现出色。该框架主要是由两个模块组成,即关系卷积神经网络关系注意力网络。 关系卷积神经网络使用节点特征和拓扑结构来建模节点之间的关系。邻接矩阵与节点特征向量进行卷积,以便捕捉节点之间的邻域信息。但是,这种方法在处理大规模时非常困难,因为它需要对整个进行计算,并且缺乏在不同层次级别上同时考虑不同关系的能力。 为了克服这些问题,研究人员引入了关系注意力网络。该网络利用双重注意力机制进行建模,其中一个是节点级别的注意力,另一个是关系级别的注意力。因此,它能够同时考虑不同关系之间的权重和影响力,并自适应地聚焦于重要的节点和关系。 在关系注意力网络中,节点级别的注意力机制可以从节点特征维度中学习不同节点权重的表示,并从不同邻居节点中学习它们之间的关系权重。而关系级别的注意力机制可以利用注意力机制来学习不同关系之间的权重,从而更好地捕捉节点之间的上下文信息。 总之,关系注意力网络是一种非常有前景的人工智能技术,可以用于各种应用场景,如社交网络分析、人脸识别、自然语言处理、物联网等。相信它将为人工智能进一步发展和创新提供更加广阔的领域和方向。 ### 回答3: 关系注意力网络(RGAT)是一种用于关系数据建模的神经网络模型,由多层Graph Attention层和一些线性层组成。这种模型是通过在关系上计算节点之间的权重信息来实现对节点之间关系的建模,并在此基础上学习更复杂的关系,从而能够更好地描述复杂的关系数据。 在RGAT中,每个节点都具有一个向量表示,这个向量表示会随着计算与其他节点的注意力权重信息而更新。这个注意力权重信息是通过计算节点之间余弦距离得到的,同时还考虑了它们在中的邻居节点。注意力机制让模型能够根据关系的拓扑结构来学习更多的节点关系信息,以及节点之间的相互作用。 RGAT网络的优点在于它可以充分利用数据的拓扑结构,能够捕捉节点之间的非线性相互关系。此外,通过网络中的注意力机制,模型可以根据节点之间的相似性来更新他们的向量表示。这样,RGAT可以在保持较高的可解释性的同时,提高数据建模的效果。 需要注意的是,RGAT需要有较大的计算和存储量来处理大规模的数据,同时还需要更多的数据预处理和特征工程。此外,RGAT适用于处理自然语言处理、计算机视觉等领域的数据,并且对低密度和高度连通的数据具有较好的建模效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值