AAAI论文摘要【知识图谱补全】:A Survey on knowledge Graphs:Representation,Acquisition and Application

A Survey on knowledge Graphs:Representation,Acquisition and Application

主要思路

  • 全面回顾

    • 知识图谱表示学习

    • 知识图谱推理

  • 全视图分类和新分类

    • KRL(知识图谱表示学习)
    • 知识获取
    • 知识感知应用(knowledge-aware application)
  • 相关的新进展

    • 基于Transformer的知识编码
    • 基于图神经网络(GNN)的知识传播
    • 基于强化学习的路径推理
    • 元关系学习(meta relational learning)
  • 总结和未来展望

Overview

知识库简史图

在这里插入图片描述

研究整体分类图

在这里插入图片描述

知识图谱相关定义图

在这里插入图片描述

KRL划分

  1. representation space

在这里插入图片描述

1.1 Point-Wise Apace

点态空间广泛的应用于表示实体和关系、向量和矩阵空间中嵌入投影关系,例如TransE(h+r=t)、TransR(分离关系和实体到不同的投影矩阵)、NTN模型(双线性神经网络层进行实体建模)。

1.2 Complex Vector Space

不同于实数值,实体和关系在复数空间表示 h,t,r ∈ C^d,例如h有实部和虚部。ComplEx首先引入复数空间,可以捕获对称和非对称关系,用Hermitian点积对实体、关系的共轭进行构图。此外还有RotatE、QuatE

1.3 Gaussian Distribution

由高斯分布来处理实体和关系的确定性和非确定性。例如模型KG2E,将实体和关系嵌入到多维高斯分布H∼N(μH,σH)和T∼N(μT,σT)中,平均向量u表示实体和关系的位置,协方差矩阵∑表示它们的(非)确定性遵循平移原理,实体变换的概率分布H−T表示为Pe∼N(μH−μT,∑H+∑T)。类似的也有TransG。

1.4 Manifold and Group(流形和群)

流形是一个拓扑空间,它可以被集合论定义为一组具有邻域的点,而群是抽象代数中定义的代数结构。点态空间计算量大,并且嵌入被限制在超级高的几何图形中,ManifoldE将逐点嵌入拓展到流形中,作者提出了球面和超平面。对于球面设置,利用Kernel Hilbert空间表示流形函数:

在这里插入图片描述

此外还有模型TorusE和DihEdral。

  1. scoring function
    大体上分为两种,基于距离的和基于相似性的函数。
    在这里插入图片描述

2.1 Distance-based Scoring Function

常见的距离计算使用欧拉距离计算实体相关的映射,例如Structural Embedding(SE)使用两个投影矩阵和L1距离计算结构嵌入。
一个广泛使用的原则是基于翻译的评分函数,目的是通过将关系表示为从头到尾实体的翻译来学习嵌入:TransE,变形TransH,TransR,TransD,TransA,TransF, ITransF,TransAt,TransMS,KG2E,ManifoldE

2.2 Semantic Matching

另一个方向是计算语义相似度。SME提出在语义上匹配(h, r)和(r, t)的实体关系对的组合。它的评分函数是由两个版本的线性和双线性匹配块定义的。
DisMult将关系矩阵Mr限制为对角关系表示学习,提出了更简化的双线性公式。
类似模型还有HolE、HolEx、ANALOGY、CrossE、TorusE、DihEdral。

  1. encoding models
    本节介绍对实体和关系进行编码的特定模型,线性/双线性模型:将头实体投影到靠近尾部实体的表示空间,将关系表示为线性/双线性映射;因子分解模型:将关系数据分成低阶矩阵进行表示学习;神经网络通过非线性神经激活和更复杂的网络结构对关系数据进行编码。神经网络模型如下所示:

在这里插入图片描述

3.1 线性/双线性模型

SE,SME,DistMult,ComplEx等。

3.2 因子分解模型

将一个KRL模型分解为多个张量。
RESCAL,TuckER等。

3.3 神经网络模型

用于编码语义匹配的神经网络在最近的研究中取得了显著的预测性能,可以使用线性/双线性块的编码模型也可以使用神经网络建模,例如SME。典型的神经模型包括多层感知器(MLP)、神经张量网络(NTN)和神经关联模型(NAM)。一般来说,它们将实体/关系带入深层神经网络并计算语义匹配分数。

3.4 卷积神经网络

CNNs 用来学习特征的深度表示,covE用二维卷积和多个非线性特征,将头实体和关系重塑为二维矩阵。ConvKB采取CNN网络进行实体和关系的串联而不进行重塑。

3.5 循环神经网络

为了去捕获知识图谱中长期的关系依赖,使用递归网络。因此Gardner和Neelakantan提出了基于RNN去建模关系路径,学习没有实体信息的向量表示。RSN模型设计了一种循环跳过机制去区分实体和关系来增强语义表示学习。

3.6 Transformers

基于transformer的模型促进了上下文表示学习,为了在知识图谱中利用上下文,COKE使用transformer来编码路径序列,KG-BERt借用语言预训练模型思想,将Transformer(BERT)中的双向编码器作为实体和关系的编码器。

3.7 Graph Neural Networks

在Encoder-decoder框架下引用RNN网络结构,模型有R-GCN、GCN、Conv-TransE。

  1. auxiliary information
    为了便于更有效的知识表示,多模态的嵌入将外部信息和知识图谱本身结合起来。

4.1 文本描述:将结构化数据和本本描述的非机构化数据嵌入到同一空间中。
4.2 类型描述:实体用classes和types来表示。
4.3 实体图像。

Knowledge Acquisition

  1. KGC(Knowledge Graph Completion)
    知识获取的目的是从非结构化文本中构造知识图,完成已有的知识图,发现并识别实体和关系。对于知识图谱补全初期的研究是学习低维度嵌入。把这类归于基于嵌入的方法,但是未能获取多步关系,因此,最近的工作转向多步关系路径,并结合逻辑规则,分别称为关系路径推理和基于规则的推理

1.1 Embedding-based Models

以预测实体为例,基于嵌入的排行方法:首先学习存在实体的嵌入向量,并且替换头实体或者尾实体,然后计算top K个实体进行排序。上述知识表示学习方法(TransE、TransH、TransR、HolE、R-GCN)和具有文本信息的DKRL等联合学习方法可以用于KGC。
与嵌入空间中表示的输入和候选不同,ProjE提出了输入三元组(h, r, ?)或(?, r, t)已知部分的空间投影组合嵌入,以及候选实体矩阵。嵌入投影函数(神经组合层和输出投影层)定义为***, ProjE不支持预测关系。
其他模型:SENN, ConMask,EDY

1.2 Relation Path Reasoning

关系路径推理转而利用图结构的路径信息,the Path-Ranking Algorithm(PRA)在路径约束的组合下选择关系路径,并进行最大似然估计分类;Gardner引入了向量空间相似性启发算法,解决了PRA中的特征稀疏问题;除此还有Chain-of-Reasoning、DIVA等。

1.3 RL-based Path Finding

通过将实体之间挖掘的路径作为顺序决策,特别是马尔科夫过程(MDP),将深度强化学习(RL)引入多步推理。基于策略的RL agent通过知识图谱环境之间的交互学习寻找一个关系步骤来拓展推理路径,利用策略梯度来训练RL agent。
例如:DeepPath,MINERVA,Multi-Hop,M-Walk,CPL等。

1.4 Rule-based Reasoning

为了充分利用知识图谱的显著特征,知识补全的另另一个方向是逻辑规则学习,一个规则定义如下:head<-body,[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-M2rlD6xW-1587536191628)(en-resource://database/505:1)]
逻辑规则可以由规则挖掘工具(AMIE)提取,最近RLVLR推出了更高效规则搜索和剪枝的可拓展规则挖掘方法,并用于链路预测。
更多的研究将逻辑队则注入到嵌入中改进推理,并应用联合学习或者迭代学习来合并一阶逻辑规则。例如KALE提出了一个统一的联合模型;RUGE提出了一个迭代模型,ITerE提出了一个包含嵌入学习、公理归纳和公理注入三部分。
神经模型和符号模型的结合也越来越吸引人们进行基于规则推理的关系。Neural Theorem Provers(NTP)利用radial basis function kernel 在向量空间上进行可微计算,学习多步推理的逻辑规则。NeuralLP使用基于梯度的优化方法用在归纳逻辑编程中,通过集成注意力机制和辅助记忆提出了一种神经控制系统。pLogicNet提出了概率逻辑神经网络,处理逻辑规则不确定的同事,结合Markov逻辑网络和KRL方法的优点,利用一阶逻辑学习有效嵌入。ExpressGNND通过调整图网络和嵌入来推广pLogicNet,从而实现更高效的逻辑推理。

1.5 Meta Relation Learning

知识图关系中存在长尾现象。同时,现实世界中的知识场景是动态的,通常会获得看不见的三元组。新的场景称为元关系学习,需要模型去预测只有少量样本新的关系事实。
GMatching提出了一种基于度量的实体嵌入和局部图结构的few-shot学习方法,利用R-GCN编码一跳邻居去获得结构信息并且在LSTM的网络下,采用结构实体嵌入进行多步匹配,计算相似度得分。MetaKGR和MetaR。

1.6 Triple Classification

三元组分类是确定测试数据中的事实是否正确,通常被认为是一个二元分类问题。设定一个阈值来进行决策。
TransH,TransR,NTN,HolE和ANALOGY。
最近,Dong将嵌入空间拓展到尾部位于头部区域的n维区域中,形成1-n关系。

2 relation extraction
关系抽取是从纯文本中提取未知关系事实并将其加入到知识图中,自动构建大规模知识图的关键。由于缺少标记的关系数据,远程监控(distance supervision,也称为弱监控或自我监控),通过假设包含相同实体的语句在关系数据库的监控下可以表示相同的关系,使用启发式匹配来创建训练数据。也有人采取远程监控和文本特征进行关系分类。
这节主要是讲述神经关系提取(NRE)先进方法,如下图所示
在这里插入图片描述

2.1 NRE

主流的神经网络广泛的应用于NRE。首先研究了具有相对实体距离位置特征的CNN进行关系分类,然后利用多窗口CNN和多尺度卷积滤波器进行关系提取。其次相关的研究:PCNN,MIMLNN,SDP-LSTM等等。

2.2 注意力机制
2.3 图卷积网络

图卷积网络利用句子或学习KGE的依赖树去进行句子编码。C-GCN是以路径为中心的句子剪枝依赖树上的上下文化GCN模型。AGGCN也在依赖树上应用GCN,但以软加权方式在边选择上使用多头注意力。

2.4 对抗训练

在MIML学习环境下,利用对抗训练(AT)在基于CNN和RNN的词嵌入中加入对抗噪声进行关系抽取。DSGAN通过学习句子级真de正样本的生成器和最小化生成器的真正概率的鉴别器来去除远程监督的关系提取。

4 强化学习

近年来,利用策略网络训练实例选择器,将RL技术引入到神经关系抽取中。秦等人提出训练基于策略的句子关系分类器RL代理,将假阳性实例重新分配到负样本中,以减轻噪声数据的影响。基于RL的NRE的优点是关系抽取器不依赖于模型。因此,它可以很容易地适应任何神经结构,以有效地提取关系。最近,HRL提出了一个高层关系检测和底层实体提取的分层策略学习框架。

5 深度剩余学习(deep residual learning)
6 迁移学习

3 entity discovery
本节将基于实体的知识获取区分为若干细分任务,即实体识别、实体消歧、实体类型和实体对齐。我们称它们为实体发现,因为它们都在不同的环境下探索实体相关的知识。
3.1 识别

实体识别或命名实体识别(NER)是一种在文本中标记实体的任务。
LATM-CNN, LSTM-CRF, MANER

3.2 实体类型

实体类型包括粗粒度类型和细粒度类型,而后者使用树结构类型策略,通常被视为多类和多标签分类。为了减少标签噪音,PLE着重于正确的类型识别,提出了一种基于异质图的部分标签嵌入模型,用于表示实体意义、本文特征和实体类型和其关系。

3.3 实体消歧

实体消歧或实体链接是一个统一的任务,它将实体提到的知识图中的相应实体链接起来。例如,“爱因斯坦”应该和埃尔伯特·爱因斯坦联系起来。流行的端到端的学习方法通过实体和mentions的表示学习取得了进展,例如:DSRM、EDKate。

3.4 实体对齐

前面的实体任务都是针对单个知识图或文本,而文本对齐是针对异构知识源中的知识,找到不同实体集中两个实体的等价关系。
提及的模型:IPTransE、BootEA、JAPE、KDCoE、MultiKE。

时序(Temporal)知识图谱

目前知识图的研究主要集中在静态知识图上,其中事实不随时间变化,而对知识图的时间动态的研究较少。然而,由于结构化知识只在特定的时间段内存在,而事实的演化遵循一个时间序列,因此时间信息具有重要的意义。最近的研究开始将时间信息引入KRL和KGC中,称之为时间知识图谱。同时研究了时间嵌入和关系嵌入。

1.时间信息嵌入

在时间感知嵌入中,通过将三元组扩展到时间四元组(h,r,t,τ)来考虑时间信息,其中τ提供了关于何时持有事实的附加时间信息。Leblay和Chekol通过时间注释的三元组研究时间范围预测,并简单地拓展了存在的嵌入方法。例如TTransE定义为:[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-tlnvUsYl-1587536191630)(en-resource://database/509:1)]
时间范围思源组听加了时间范围[Ts,Te],开始时间和结束时间是三元组的有效范围,给了时间τ时,动态知识图谱便得到了。
相关模型:HyTE等。

2.实体动态

现实世界中的事件会改变实体的状态,从而影响对应的关系。为了改进时间范围推断,the contextual temporal profile model将时间范围问题定义为状态变化检测,并利用上下文学习状态和状态变化向量。Know-evolve是一个深入的进化知识网络,研究实体的知识进化现象及其进化关系。利用多变量时点过程对facts的发生进行建模,提出了一种新的递归网络来学习非线性时间演变的表示。为了捕获节点之间的交互,RENET通过基于RNN的事件编码器和邻域聚集器对事件序列建模。具体来说,RNN用于捕获时间实体交互,并发交互由邻域聚合器聚合。

3.时间关系依赖

跟随时间轴的关系链中存在时间依赖,例如:wasBornIn →graduateFrom → workAt → diedIn,Jiang等人提出了时间感知嵌入,这是一种具有实践正则化的联合学习框架,用于整合时间顺序和一致性信息。作者定义了一个时间评分函数:[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-YdNPi2Js-1587536191631)(en-resource://database/511:1)]
T是一个编码关系的时间序列(<Rk, Rl)的非对称矩阵。利用整数线性规划方法,进一步应用离散度、排序和跨度三个时间一致性约束。

4.时间逻辑推理

时序推理的逻辑规则也被研究了,Chekol等人和RLVLR-Stream模型。

知识感知应用程序

丰富的结构化知识对人工智能应用程序非常有用。但是如何将这些象征性的知识整合到实际应用程序的计算框架仍然是一个挑战。本节介绍了最近几种基于DNN的知识驱动方法及其在NLU、推荐和问答方面的应用。

  1. 自然语言理解(NLU)

基于知识的自然语言理解通过将结构化知识注入统一的语义空间来增强语言表达能力。近年来,知识驱动的研究利用了显性事实知识和隐性语言表征,探索了很多自然语言理解任务,Chen提出了在两个知识图谱上的双图随机游走,考虑口语理解中的inter-slot关系。Wang等人通加权词概念嵌入,基于知识的概念化增强短文本表示学习。Peng等人集成外部知识库卡,构建短文本分类的异构知识图。
KGLM、ERNIE-Tsinghua、BERT-MK、ERNIE-Baidu。

  1. 问答系统

knowledge-graph-based question answering (KG-QA)用知识图谱中的事实回答自然语言问题。基于神经网络的方法在分布式语义空间中表示问题和答案,有些方法还为常识推理进行符号知识注入。

2.1 Single-fact QA
2.2 Muti-hop Reasoning

  1. 推荐系统
  • 4
    点赞
  • 43
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值