GNN in KG(三) Logic Attention Based Neighborhood Aggregation for Inductive Knowledge Graph Embedding

本文提出了一种新的知识图谱嵌入方法——逻辑注意力网络(LAN),它通过逻辑规则机制和神经网络机制来考虑邻域信息的贡献,适用于归纳型知识图谱嵌入。LAN在三元组分类和链接预测任务上表现出优越性能,证明了其在知识图谱完成任务中的有效性。
摘要由CSDN通过智能技术生成

本文发表在AAAI2019,作者来自Sun Yat-sen University,Tencent AI Lab,Wuhan University。
经过了前两篇论文的学习,现在我们知道了GK embedding分为encoder和decoder两部分。而融合了图神经网络的encoder有更大的创新空间,GNN的聚合方式影响了GNN的性能。本文认为,一个理想的聚合器应该具有以下所需的属性:

  • Permutation Invariant。这也是GNN中的一个基本的性质,即:聚合与邻域节点的顺序无关。
  • Redundancy Aware。KGs中的事实往往是相互依赖的。例如,一个人在芝加哥公牛队打球总是暗示他/她是篮球运动员。利用实体邻域中的这种冗余是有益的,从而使聚合提供信息。好的聚合器应该能利用这种非显示的冗余信息。
  • Query Relation Aware。对于常见的KG补全任务,查询关系是预先给出的,例如live_in。一个聚合者可能会利用这些信息集中在附近的相关事实,例如,“play for” Chicago Bulls。这条性质和上一条有所区别,因为live_in这个关系并不一定真的与play_for有很强烈的因果或是包含关系,二者只是有一定的概率一同出现。结合后文的算法,这条性质应该旨在说明聚合器需要建模不同关系之间的概率关系。
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Graph Embedding嵌入)和Graph Neural Network(神经网络)是两种不同的方法用于处理数据。 Graph Embedding是指将数据中的节点和边转化为低维向量表示的过程。它的目的是通过学习节点和边的向量表示,将数据转化为高效且可用于机器学习算法的数值特征。Graph Embedding可以通过多种方式来实现,如DeepWalk、Node2Vec、Line等。它们通常是基于节点之间的邻近关系来学习节点的向量表示,即节点的向量表示尽可能地保留与其邻居节点的相似性。Graph Embedding可以用于数据的聚类、相似度计算、可视化等任务。 Graph Neural Network是一种基于神经网络的模型,专门用于处理结构化数据。GNN模型可以通过学习节点的向量表示,并利用节点之间的关系进行信息传递和更新。GNN通过定义节点的邻居节点和自身的聚合函数,将节点信息进行传递和更新。GNN的核心思想是通过多次迭代聚合节点的邻居信息,最终获取节点的全局信息。GNN可以进行节点分类、分类、链接预测等任务。 因此,Graph EmbeddingGraph Neural Network有一些区别。Graph Embedding是一种将数据转化为低维向量的过程,而GNN是一种通过学习结构信息进行节点特征传递和更新的模型。Graph Embedding在表示学习上更加注重将节点和边的信息转化为向量形式,而GNN在聚合和传递信息时更加注重节点之间的相互影响。两者可以结合使用,将Graph Embedding的低维向量作为GNN的输入,进一步提高数据的表示和处理能力。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

五月的echo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值