论文浅尝 | 综述:关于不同种类知识图谱的推理研究(IEEE TPAMI 2024)

在这里插入图片描述

1. 动机

人类通过书籍和经验这两种途径学习技能,而现有的人工智能忽略了前者而着重于不断模仿获得经验。知识图谱作为一种图结构的知识存储工具成为了解决人工智能可解释性和性能提高的潜在解决方案。现实世界知识动态持续变化,因而知识图谱的构建也是一个动态的过程,很多知识图谱存在不完整的问题。而知识图谱推理(KGR)旨在从知识图谱(KGs)中现有的事实中推导出缺失的事实,能够有效解决知识图谱的不完整问题,这一技术已被证明在问答、推荐系统等许多人工智能应用中具有显著价值。

根据图的类型,现有的KGR模型大致可以分为三类:静态模型、时序模型和多模态模型。传统知识图谱仅包含静态的单模态事实,虽然简单但有效,适合开发一般的基础KGR模型。然而,它们仍然无法完全描述现实世界场景,现实世界中包含来自各种来源的信息。因此,近期的知识图谱(时序知识图谱和多模态知识图谱)是通过在静态知识图谱的基础上增加额外的时间和多模态信息构建的,这更加实用且接近现实世界。目前已有一些关于KGR的综述论文,但大多数仅关注静态KGR,而忽略了时序知识图谱和多模态知识图谱中的最新进展;大多数综述论文也忽略了静态和时序KGR的推理场景,尚未有综述论文和开源资源库能够全面总结和讨论这一重要方向的模型。

为此,这份综述针对知识图谱推理技术,从静态到时序再到多模态知识图谱进行了系统梳理。基于双层分类体系(顶层为图类型,底层为技术和场景)对模型进行了回顾,并总结了模型性能和数据集。此外,文章还指出了当前面临的挑战和潜在的发展机遇,以启发读者。文章的贡献总结如下:
(1)全面回顾:基于双层分类体系(顶层为图类型,底层为技术和场景)全面调查了典型的KGR模型,涵盖了三种图类型(静态、时序、多模态知识图谱)、14种技术和4种推理场景,为KGR提供了系统的综述。
(2)深入分析:对现有KGR模型的优势、劣势及其适用范围进行了深入分析,为研究者选择合适的基线模型提供了有价值的指导。
(3)潜在机遇:总结了知识图谱推理面临的挑战,并指出了潜在的发展机遇,为未来的研究提供了方向。
(4)开源资源:在GitHub上开源了221个最先进的KGR模型(包括论文和代码)以及69个典型数据集的集合,为研究社区提供了宝贵的资源。
图片

图 1综述整体框架

2. 三类知识图谱推理模型

根据知识图谱中的信息类型,目前的知识图谱大致可以分为静态知识图谱、时间知识图谱和多模态知识图谱三大类(如图2)。文章设计了一种双层分类方法(如图3),顶层为图的类型,对应静态、时序和多模态三种类型的知识图谱,底层进一步细分为技术和场景两个方面。文章采用这种分类方法分别对这三种类型的知识图谱推理模型进行了系统梳理。
图片

图 2三种类型的知识图的示例,即静态知识图、时态知识图和多模态知识图

在这里插入图片描述

图 3知识图谱推理模型的双层分类法

2.1 静态知识图谱推理
如下表,文章基于技术和场景系统地介绍了117个静态KGR模型。
图片

给定一个静态知识图谱,它的目标是利用现有事实背后的逻辑模式来推导查询事实( ),基于评分函数计算的可能性。根据缺失元素的类型,存在三个子任务,即头实体推理(head reasoning)(

)、尾实体推理(tail inferring)(

)和关系推理(relation inferring)(

) 。静态KGR模型根据其技术手段可以分为三大类:基于嵌入(embedding-based)、基于路径(path-based)和基于规则(rule-based)的模型。
图片

图 4静态KGR模型的分类

  • 基于嵌入的模型
    核心思想是通过学习实体和关系的嵌入向量,利用评分函数计算候选事实的置信度,从而推导出最有可能的缺失事实。主要方法有:翻译模型(Translational Models),如TransE、TransH、TransR等,将关系视为实体之间的翻译操作;张量分解模型(Tensor Decompositional Models),如RESCAL、DistMult、ComplEx等,将知识图谱编码为张量并进行分解;神经网络模型(Neural Network Models),如SME、NTN、GNN等,利用神经网络生成实体和关系的嵌入表示。
    图片

图 5基于嵌入的静态KGR模型时间轴

  • 基于路径的模型

通过挖掘查询实体对之间的路径来推导逻辑规则,从而实现推理。主要方法有:随机游走(Random Walk),如PRA、ProPPR等,通过路径约束推导逻辑规则;深度强化学习(Deep Reinforcement Learning),如DeepPath、MINERVA等,将路径搜索视为序贯决策问题。
基于规则的模型

利用符号化的逻辑规则进行推理,规则通常以“B → A”的形式表示。主要方法有:规则挖掘(Rule Mining),如AMIE、RuleN等,从知识图谱中提取逻辑规则;神经逻辑推理(Neural Logic Reasoning),如NeuralLP、RNNLogic等,结合神经网络技术优化规则挖掘。
按照推理场景分类可以分为归纳场景(Transductive scenario)和演绎场景(Inductive scenario)。归纳场景中所有查询实体和关系在训练阶段均已见过,而演绎场景中查询实体和关系可能未在训练阶段出现过。
图片

图 6归纳和演绎推理示例

2.2 时序知识图谱推理

如下表,文章基于技术和场景系统地介绍了69个时序KGR模型。
在这里插入图片描述

给定时序知识图谱 TKG,KGR的目标是推导四元组事实。与静态KGR类似,对于特定时间戳 上的事实推理,也存在三个子任务。此外,时序推理本身也应被视为时序KGR的一个重要任务,例如:(1) 查询特定关系事实的时间戳 ;(2) 根据事实内部的时间戳比较不同时间戳的顺序。时序KGR模型的关键是如何整合时间信息,据此其技术手段可以分为两大类:基于RNN的模型(RNN-based models)和非RNN模型(RNN-agnostic models)。
图片

图 7时序KGR模型的分类

  • 基于RNN的模型

循环神经网络适用于挖掘随时间的变化,基于RNN的模型利用循环神经网络(RNN)及其变体(如LSTM、GRU)来建模时间信息,捕捉知识图谱随时间的动态变化。主要方法有:四元组基础模型(Quadruple-Based Models),如Know-Evolve、TTransE等,直接将四元组事实输入RNN进行时间编码;路径基础模型(Path-Based Models),如CluSTeR、DacKGR等,利用RNN对路径序列进行时间编码;图基础模型(Graph-Based Models),如EvolveGCN、RE-NET等,利用RNN对图结构的动态变化进行建模。

  • 非RNN模型

通过其他方式(如时间向量或时间操作)将时间信息融入到静态KGR模型中,而不依赖于RNN框架。主要方法有:时间向量引导模型(Time-Vector Guided Models),如TComplEx、ChronoR等,将时间信息编码为额外的时间向量并与事实嵌入融合;时间操作引导模型(Time-Operation Guided Models),如HyTE、ATiSE等,通过特定的时间操作(如投影到时间超平面)来利用时间信息。
根据推理场景可以将时序KGR分为插值推理(Interpolation Reasoning)和外推推理(Extrapolation Reasoning)两类,分别指推导出在已知时间范围内的事实和已知范围外的事实。具体来说,给定时序知识图谱的时间戳范围为 0 到 T,插值推理旨在推导时间 t(其中 0≤t≤T)上的查询事实;而外推推理则旨在推导时间 t(其中 t≥T)上的查询事实。
图片
图 8插值和外推推理示例

2.3 多模态知识图谱推理

如图9,文章基于技术和场景系统地介绍了35种多模态KGR模型。
图片

图 9多模态KGR模型时间轴

多模态知识图谱(MKG)包含多种模态的信息,例如实体或属性中的文本、图像等。根据多模态信息的存储方式,多模态知识图谱可以分为两类:N-MMKG多模态信息作为实体存在和A-MMKG多模态信息作为属性存在。
图片

图 10多模态KGR模型的分类

多模态KGR模型根据其技术手段可以分为两大类:基于Transformer的模型(Transformer-based models)和非Transformer模型(Transformer-agnostic models)。

  • 基于Transformer的模型

利用Transformer架构及其变体(如BERT、CLIP等)来统一处理多模态信息,通过预训练模型学习多模态特征的融合。主要方法有:预训练Transformer模型,如VBKGC、Knowledge-CLIP等,利用预训练的Transformer模型对多模态特征进行编码;统一Transformer框架,如MKGformer、SGMPT等,设计统一的Transformer框架来融合多模态信息。

  • 非Transformer模型

不依赖Transformer架构,通过扩展传统的静态KGR模型(如TransE)来处理多模态信息,设计不同的机制来融合多模态特征。主要方法有:基于嵌入的扩展:如CKE、DKRL、IKRL等,通过扩展嵌入模型来处理多模态信息;多模态特征融合:如MKBE、MRCGN、MMKGR等,通过设计不同的特征融合机制来利用多模态信息。
多模态KGR的推理场景主要分为两类:N-MMKG场景中多模态信息作为实体存在,推理任务需要考虑多模态实体之间的关系。A-MMKG场景中多模态信息作为属性存在,推理任务需要利用多模态属性辅助推理。

3. 方法

文章中全面总结了KGR的典型数据集,特别是针对时序知识图谱(Temporal KGs)和多模态知识图谱(Multi-Modal KGs)的数据集。对三种类型的KGR数据集提供描述和开源整合。

  • 静态KGR数据集

静态知识图谱数据集通常包含大量的三元组(实体、关系、实体),用于训练和测试模型的推理能力。
图片

  • 时序KGR数据集

时序知识图谱数据集在静态知识图谱的基础上增加了时间维度,这些数据集中的事实以四元组(eh, r, et, t)的形式表示,其中t表示时间戳。
在这里插入图片描述

  • 多模态KGR数据集

多模态知识图谱数据集结合了多种模态的信息(如文本、图像、视频等),这些数据集不仅包含结构化的知识图谱信息,还包含丰富的多模态特征。
在这里插入图片描述

4. 挑战与机遇

文章中还深入探讨了KGR中的诸多挑战和潜在机遇,主要从以下九个方面进行了分析:

  • 分布外推理(Out-of-Distribution Reasoning)

在现实世界场景中,知识图谱中会不断出现新的实体和关系,这些元素在原始知识图谱中是未被探索的。对这些未被探索的元素进行推理被称为分布外推理,这对KGR模型的设计提出了更高的要求。一些最近归纳推理模型如GraIL、TACT、CoMPILE和 Meta-iKG通过挖掘图结构中的逻辑规则来实现有希望的性能。至于未见关系的推理,少样本KGR模型倾向于提高模型的泛化能力,以便训练后的模型能够通过少量事实很好地扩展到未见关系。此外,BERTRL试图基于语言模型计算的文本语义来处理这种情况。然而当语言模型未经过精细训练时,这些模型的性能可能会急剧下降。在我们看来,缓解此类问题的关键是找到异常值和正常值之间的关联。用于分布外推理任务的KGR模型仍处于早期阶段,值得在未来深入探索。

  • 大规模推理(Large-Scale Reasoning)

工业级知识图谱通常是大规模的,这需要更高效的KGR模型。为此,一些现有工作试图以渐进的方式优化传播过程。如NBF-net将Bellman-Ford算法集成到基于GNN的KGR模型中,以替代原始的DFS(深度优先搜索)聚合过程。此外,ANet进一步通过A算法优化聚合过程。类似地,图聚类的思想也被用于节省资源成本。CURL首先根据实体语义将知识图谱划分为不同的簇,然后将路径搜索过程细分为簇内和簇间两个层面,减少了对整个图的不必要搜索。同样,许多工作在子图上而不是完整图上进行推理如GraIL和 CSR。基于知识图谱特性的细粒度和自适应采样策略是解决该问题的潜在方案。然而,大多数方法牺牲了推理的精确性,这可能仍然是探索更全面模型的方向。

  • 多关系推理(Multi-Relational Reasoning)

在知识图谱中,两个实体之间可能存在多种关系,这种多关系事实比单关系或双关系事实更为复杂。然而,现有的KGR模型大多只关注单关系和双关系事实,甚至会忽略多关系事实中的一些关系。这种简化处理方式导致模型无法准确地描述现实情况,从而降低了其表达能力。未来的研究需要探索如何更好地利用多关系事实来增强推理能力,例如通过设计对齐和去冗余策略来简化复杂的多关系结构。

  • 时序推理(Temporal Reasoning)

时序知识图谱中的事实以四元组的形式存在,但大多数现有的时序KGR模型主要关注特定时间戳上的事实推理,而忽略了时间推理的其他方面,如查询特定关系事实的可能时间戳或比较不同时间戳中事实的顺序。虽然有一些模型开始尝试解决这些问题,但目前的性能仍有很大的提升空间。未来的研究可以借鉴时序图学习中的思想,例如采用Hawkes过程等时间处理机制,而不是简单地将时间建模为离散的时间戳。

  • 不一致性推理(Inconsistent Reasoning)

知识图谱通常是人工构建的,因此可能存在不一致性和矛盾问题。一方面,随着时间的推移,某些事实可能会变得无效;另一方面,由于数据隐私和粗心的错误,知识图谱中可能存在错误。然而,现有的KGR模型通常假设现有事实是正确的或对模型的影响较小,从而忽略了这种情况。未来的研究可以尝试设计虚假事实检测器,以便在推理过程中更好地利用数据。

  • 可解释推理(Explainable Reasoning)

尽管KGR模型通常比深度学习模型更具可解释性,但嵌入式KGR模型的可解释性仍有待提高。近年来,越来越多的KGR模型基于神经网络开发,如图神经网络(GNN),它们虽然具有强大的表达能力,但可解释性较差。相比之下,基于规则和路径的KGR模型更具可解释性,但计算复杂度较高且表达能力有限。未来的研究需要探索如何在表达能力和可解释性之间取得更好的平衡,例如通过将嵌入式模型与基于规则和路径的模型相结合。
多模态推理(Multi-modal Reasoning)

多模态KGR模型通过融合多源信息来减少知识图谱的不连通性和稀疏性,从而提高推理性能。然而,现有的多模态KGR模型仍处于早期阶段,它们通常只是简单地将不同模态的嵌入向量拼接在一起进行最终的分数计算。未来的研究需要开发更细粒化的融合模式,例如自适应融合模式,以根据不同模态的重要性进行加权,从而提高模型的性能和可扩展性。
KGR应用(Knowledge Graph Reasoning Application)

尽管近年来提出了大量的KGR方法,展示了其在理论领域的巨大潜力,但KGR在实际应用中的研究仍需加强。如今,知识图谱在许多下游应用中得到了广泛使用,例如医疗、金融、抄袭检测等领域。医疗知识推理模型旨在协助医生从电子病历中诊断疾病。例如,Path-based Knowledge Reasoning 在医疗领域被用于辅助医生从电子病历中诊断疾病,而 Graph-enhanced Techniques 则被用于金融领域的反欺诈检测。此外,Knowledge Graph-based Retrieval-Augmented Generation (KG-RAG) 技术也被用于增强现有LLMs的可靠性。然而,在大型语言模型(LLM)时代,知识图谱在垂直领域的优势仍然明显,它们在数据管理和可解释性方面具有更高的效率

  • 知识图谱与LLMs的协同推理(Collaborative Reasoning With KGs and LLMs)

大型语言模型因其强大的推理能力和泛化能力而受到广泛关注。然而,这些模型在可解释性和可靠性方面仍存在问题,这些问题可以通过与KGR模型的协同合作来解决。如QA-GNN 利用LLMs进行文本预处理,并在知识图谱上进行推理,显著提高了模型的可解释性;Chain-of-Thought (CoT) 和 Graph-of-Thought (GoT) 等技术通过增强LLMs的推理能力,提高了其在复杂任务中的表现;基于知识图谱的检索增强生成(KG-RAG)技术也被用于增强现有LLMs的可靠性。随着训练数据的增加,一些研究者认为LLMs将成为一种更通用的知识图谱,能够实现索引、推理和存储等功能。然而,我们认为知识图谱和LLMs应该相互结合以实现协同推理,比如将LLMs视为智能代理,主动探索知识图谱中的相关实体和关系,检索到的知识可以进一步用于推理过程。关键问题是如何发现高置信度的推理路径,并最终通过LLMs提供最可能的推理结果。此外,利用知识图谱来约束LLMs的“幻觉”问题也值得探索。关于知识图谱与LLMs结合的各种假设是合理的,但目前尚无法判断哪一种更有价值。

5. 总结

综述文章中基于双层分类体系,系统地回顾了现有的知识图谱推理(KGR)模型。顶层分类为图类型(包括静态、时序和多模态知识图谱),底层分类为技术和场景。文章中涵盖了三种图类型、十四种技术和四种推理场景,为知识图谱推理提供了系统的综述。此外,还总结了知识图谱推理面临的挑战,并指出了潜在的发展机遇,以启发读者。为了方便研究,社区在GitHub上共享了221个最先进的KGR模型(包括论文和代码)以及69个典型数据集的集合。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值