GraphRAG深入解析

2 篇文章 0 订阅
2 篇文章 0 订阅

GraphRAG 深入解析

GraphRAG 是一种结构化的、分层的检索增强生成 (RAG) 方法,不同于使用纯文本片段的简单语义搜索方法。GraphRAG 流程包括从原始文本中提取知识图谱、构建社区层次结构、为这些社区生成摘要,然后在执行基于 RAG 的任务时利用这些结构。

 检索增强生成 (RAG) 是一种使用真实世界的信息改进 LLM 输出的技术。这种技术是大多数基于 LLM 的工具的重要组成部分,大多数 RAG 方法使用向量相似性作为搜索技术,我们称之为 Baseline RAG。GraphRAG 使用知识图谱在推理复杂信息时大幅提高问答性能。RAG 技术在帮助 LLM 推理私有数据集方面显示出良好的前景- 私有数据集是 LLM 未经过训练且从未见过的数据,例如企业的专业研究、商业文档或通信。Baseline RAG 的创建是为了帮助解决这个问题,但我们观察到 Baseline RAG 表现非常差的情况。例如:

  • 基线 RAG 难以将各个点连接起来。当回答问题需要通过共享属性遍历不同的信息片段以提供新的综合见解时,就会发生这种情况。
  • 当被要求全面理解大型数据集合甚至单个大型文档中的总结语义概念时,基线 RAG 的表现不佳。

 为了解决这一问题,技术社区正在努力开发扩展和增强 RAG 的方法。微软研究院的新方法 GraphRAG 使用 LLM 根据输入语料库创建知识图谱。该图谱与社区摘要和图形机器学习输出一起用于增强查询时的提示。GraphRAG 在回答上述两类问题方面表现出了显著的进步,表现出的智能或掌握程度优于之前应用于私有数据集的其他方法。

概述

 GraphRAG 建立在微软之前使用图机器学习的研究工具的基础上。GraphRAG 流程的基本步骤包含索引和查询两部分。

索引

  1. 将输入语料库切分为一系列 TextUnit,这些 TextUnit 作为其余过程的可分析单元,并在我们的输出中提供细粒度的参考。
  2. 使用 LLM 从 TextUnits 中提取所有实体、关系和关键声明。
  3. 使用莱顿算法对图表进行层次聚类。
  4. 自下而上地生成每个社区及其组成部分的摘要。这有助于整体理解数据集。

查询

 在查询时,这些结构用于在回答问题时为 LLM 上下文窗口提供材料。主要查询模式包括:

索引过程深入解析

 本节主要介绍工作流如何将文本文档转换为 GraphRAG 知识模型,主要分为六个阶段。索引工作流的完整配置,请查看配置文档


六阶段数据处理工作流预览

步骤 1:处理文本块

 将输入文档转换为 TextUnits。使用文本分段技术将文档进行分块,文本块还作为实体和关系的来源被提取的图引用,便于追溯到原始文本。对于文本块大小的设置需要考虑具体使用情况,一般较大的块会导致输出保真度较低,参考文本意义较小;但是,使用较大的块可以大大缩短处理时间。文档和文本单元之间一般存在严格的一对多关系,在极少数情况下,这可以变成多对多关系(当文档很短并且我们需要其中几个来组成一个有意义的分析单元)。
文本转换为文本块

步骤 2:图提取

 在此阶段,分析每个文本单元并提取图元素:实体、关系和协变量。

图元素提取

  • 实体和关系提取

 在图提取的第一步中,我们处理每个文本单元,以便使用 LLM 从原始文本中提取实体和关系。此步骤的输出是每个文本单元的子图,其中包含具有名称、类型和描述的实体列表,以及具有源、目标和描述的关系列表。这些子图合并在一起,任何具有相同名称和类型的实体都通过创建其描述数组进行合并。同样,任何具有相同源和目标的关系都通过创建其描述数组进行合并。

  • 实体和关系摘要

 现在我们有了实体和关系图,每个图都有一串描述,我们可以将这些列表汇总为每个实体和关系的单个描述。这可以通过要求 LLM 提供简短的摘要来完成,该摘要捕获每个描述中的所有不同信息。这使得我们所有的实体和关系都有一个简洁的描述。

  • 实体消歧(微软 GraphRAG 配置默认是不启用的)

 图提取的最后一步是解析任何代表相同现实世界实体但名称不同的实体。由于这是通过 LLM 完成的,并且我们不想丢失信息,因此我们希望采取保守、非破坏性的方法。
 然而,我们目前对实体解析的实现是破坏性的。它将为 LLM 提供一系列实体,并要求其确定哪些实体应该合并。然后,这些实体将合并为一个实体,并更新它们的关系。
 我们目前正在探索其他实体解析技术。在不久的将来,实体解析将通过在实体变体之间创建一条边来执行,表明实体已被索引引擎解析。这将允许最终用户撤消索引端解析,并使用类似的过程添加自己的非破坏性解析。

  • 协变量提取

 最后,作为一个独立的工作流程,我们从源 TextUnits 中提取声明。这些声明代表具有评估状态和时间限制的积极事实陈述。它们作为称为协变量的主要工件发出(协变量在本地搜索模式中被引用)。

步骤 3:图增强

 现在我们有了可用的实体和关系图,我们希望了解它们的社区结构,并用其他信息扩充该图。这分为两个步骤:社区检测和图嵌入。这为我们提供了显式(社区)和隐式(嵌入)方法来理解图的拓扑结构。

图增强

  • 社区检测

 在此步骤中,我们使用分层莱顿算法生成实体社区的层次结构。此方法将对我们的图应用递归社区聚类,直到达到社区规模阈值。这将使我们能够了解图的社区结构,并提供一种在不同粒度级别上导航和总结图的方法。

  • 图嵌入

 在此步骤中,我们使用 Node2Vec 算法生成图中节点的向量表示。这将使我们能够理解图的隐式结构,并提供额外的向量空间,以便在查询阶段搜索相关概念。

步骤 4:社区总结

社区总结

 此时,我们有一个实体和关系的图、实体的社区层次结构以及 node2vec 嵌入。
 现在,我们希望基于社区数据并为每个社区生成报告。这让我们可以从多个粒度点对图表有一个高层次的了解。例如,如果社区 A 是顶级社区,我们将获得有关整个图表的报告。如果社区是较低级别的,我们将获得有关本地集群的报告。

  • 生成社区报告

 在此步骤中,我们使用 LLM 生成每个社区的摘要。这将使我们能够了解每个社区中包含的独特信息,并从高级或低级角度提供对图表的范围理解。这些报告包含执行概述,并引用社区子结构中的关键实体、关系和声明。

  • 总结社区报告

 在此步骤中,每个社区报告都会通过 LLM 进行总结,以供摘要使用。

  • 社区嵌入

 在此步骤中,我们通过生成社区报告、社区报告摘要和社区报告标题的文本嵌入来生成我们社区的向量表示。

步骤 5:文件处理

 在工作流程的这个阶段,开始处理文档图谱核心步骤包括文本块图谱的创建和文档的向量化表示。

文件处理

  • 链接到 TextUnits

 在此步骤中,我们将每个文档链接到第一阶段创建的文本单元,创建文本块之间的上下文关系。这使我们能够了解哪些文档与哪些文本单元相关。

  • 文档嵌入

 在此步骤中,我们使用文档切片的平均嵌入来生成文档的向量表示。我们对不重叠的块重新分块文档,然后为每个块生成嵌入。我们创建这些块的平均值,并按标记计数加权,并将其用作文档嵌入。这将使我们能够理解文档之间的隐式关系,并帮助我们生成文档的网络表示。

步骤 6:网络可视化

 在工作流程的这个阶段,我们执行了一些步骤来支持现有图中高维向量空间的网络可视化。此时有两个逻辑图表在起作用:实体关系图和文档图。

网络可视化

 对于每个逻辑图,我们执行 UMAP 降维以生成图的 2D 表示。这将使我们能够在 2D 空间中可视化图并了解图中节点之间的关系。然后将 UMAP 嵌入作为 Nodes 表发出。该表的行包括一个鉴别器,指示节点是文档还是实体,以及 UMAP 坐标。

查询过程深入解析

 查询引擎是 Graph RAG 库的检索模块。它是 Graph RAG 的核心组件之一。它负责以下任务:

  • 本地搜索
  • 全局搜索
  • 问题生成

本地搜索

  • 基于实体的推理
    本地搜索方法通过将 LLM 提取的知识图谱中的相关数据与原始文档的文本块相结合来生成答案。此方法适用于需要了解文档中提到的特定实体的问题(例如,洋甘菊的治疗功效是什么?)。

  • 方法论

本地搜索数据流

 给定用户查询和(可选)对话历史记录,本地搜索方法会从知识图谱中识别出一组与用户输入在语义上相关的实体。这些实体可作为知识图谱的访问点,从而提取更多相关详细信息,例如连接实体、关系、实体协变量和社区报告。此外,它还会从与已识别实体相关的原始输入文档中提取相关文本块。然后对这些候选数据源进行优先排序和筛选,以适应预定义大小的单个上下文窗口,该窗口用于生成对用户查询的响应。

问题生成

  • 基于实体的问题生成
    问题生成方法将知识图谱中的结构化数据与输入文档中的非结构化数据相结合,生成与特定实体相关的候选问题。此功能获取用户查询列表并生成下一个候选问题。这对于在对话中生成后续问题或为调查员生成问题列表以深入研究数据集非常有用。

  • 方法论
     给定先前用户问题的列表,问题生成方法使用与本地搜索相同的上下文构建方法来提取和优先处理相关的结构化和非结构化数据,包括实体、关系、协变量、社区报告和原始文本块。然后,这些数据记录被放入单个 LLM 提示中,以生成代表数据中最重要或最紧急的信息内容或主题的候选后续问题。

全局搜索

  • 基于整个数据集推理
     全局搜索方法通过以 map-reduce 方式搜索所有 AI 生成的社区报告来生成答案。这是一种资源密集型方法,但通常可以很好地回答需要了解整个数据集的问题(例如,本笔记本中提到的药材最重要的价值是什么?)。

在这里插入图片描述

 上图是一个经典的 MapReduce 原理图结构,包含以下主要步骤(包含全局 GraphRAG 流程的简单注解)。

  1. 将 input 的文件拆分成 splits,由于测试用的文件较小,所以每个文件作为一个 split,并将文件按行分割。这一步由 mapreduce 框架自动完成。(通过向量检索语义相关的社区)
  2. 将分割好的文件交给用户定义的 map 方法进行处理,生成<key,value>对。(生成社区和用户问题相关程度的分值,和社区节点本身组成 MAP)
  3. 得到 map 方法输出的<key,value>对后,shuffle 过程,会把相同 key 值相同的放到一起。(社区结果基于与问题的相关度做 Shuffle,可以理解成分组)
  4. Reduce 过程,把 key 值相同 value 值累加,得到新的<key,value>对,并作为 word count 的输出结果。(组内综合打分后排序过滤 0 分的结果,然后由 LLM 生成回复)

 Baseline RAG 很难处理需要汇总整个数据集的信息才能得出答案的查询。诸如“数据中的前 5 个主题是什么?”之类的查询表现不佳,因为 Baseline RAG 依赖于对数据集内语义相似的文本内容进行向量搜索。查询中没有任何内容可以将其引导至正确的信息。

 但是,使用 GraphRAG,我们可以回答这些问题,因为 LLM 生成的知识图谱的结构告诉我们整个数据集的结构(以及主题)。这允许将私有数据集组织成预先汇总的有意义的语义集群。使用我们的全局搜索方法,LLM 在响应用户查询时使用这些集群来总结这些主题。

  • 方法论

全局搜索数据流

 给定用户查询和(可选)对话历史记录,全局搜索方法使用来自图的社区层次结构指定级别的 LLM 生成的社区报告集合作为上下文数据,以 map-reduce 方式生成响应。在此 map 步骤中,社区报告被分割成预定义大小的文本块。然后使用每个文本块生成一个中间响应,其中包含一个要点列表,每个要点都附有数字评级,表明该要点的重要性。在此步骤中,reduce 从中间响应中筛选出的一组最重要的要点被汇总并用作上下文来生成最终响应。

 全局搜索响应的质量可能在很大程度上受到选择用于获取社区报告的社区层级的影响。较低层级的报告较为详细,因此往往会产生更全面的响应,但由于报告数量较多,生成最终响应所需的时间和 LLM 资源也可能会增多。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

马超的博客

谢谢大佬的赞赏 :)

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值