【LLM大模型】GraphRAG入门学习流程

GraphRAG

GraphRAG 是一种基于图的检索增强方法,由微软开发并开源。它通过结合LLM和图机器学习的技术,从非结构化的文本中提取结构化的数据,构建知识图谱,以支持问答、摘要等多种应用场景。GraphRAG的特色在于利用图机器学习算法进行语意聚合和层次化分析,从而能够回答一些高层次的抽象或总结性问题,这是常规RAG系统的短板。

GraphRAG的核心在于其处理流程,包含2个阶段:Indexing和Querying。

  • 在Indexing阶段:GraphRAG将输入文本分割为多个可分析单元(称为TextUnits)。使用LLM提取实体、关系和关键声明。然后通过层次聚类技术(例如Leiden算法)对图谱进行社区划分,并生成每个社区的摘要

  • 在Querying阶段:这些结构被用来提供材料,以作为LLM的context来回答问题。查询模式包括全局搜索和局部搜索:

    • 全局搜索:通过利用社区的总结来推理关于语料库整体问题的答案
    • 局部搜索:通过扩展到特定实体的邻居和相关概念来推理关于特定实体的问题

相对于传统的RAG方法,在处理私有数据集时展现出显著的性能提升。它通过构建知识图谱和社区分层,以及利用图机器学习技术,增强了对复杂信息的问答性能,尤其是在需要全面理解大型数据集或单一大型文档的语意概念时。

基于微软官方发布的博客来看[1],微软采用了一个LLM评分器来给GraphRAG和Baseline RAG的表现进行评估。基于一系列的指标,包括全面性(提取的上下文内容的完整性,包括隐含的信息)、人类赋权(提供来源的材料或其他上下文信息)和多样性(提供不同的视角或问题的角度)。从初步评测结果来看,GraphRAG在这些指标上都优于Baseline RAG。

除此之外,微软还实用了SelfCheckGPT来进行忠实度的绝对测量,来确保基于原材料的事实性和连贯性结果。结果也显示出GraphRAG在忠诚度上达到了与Baseline RAG类似的水平。目前微软也在开发一个评估框架,用来进一步衡量上述问题类型的性能。

1. 测试GraphRAG

需要注意的是,默认情况下,GraphRAG使用的是OpenAI的模型。如果要使用AWS Bedrock提供的模型,建议可以使用亚马逊云科技提供的Bedrock Access Gateway方案[2]。

下面是部署流程

# 创建conda环境conda create -n grag python=3.10conda activate grag# 安装graphragpip3 install graphrag# 设置环境mkdir gragdemocd gragdemo/# 初始化环境,创建 .env 和 settings.yaml文件以及默认的配置项python3 -m graphrag.index --init --root ./ragtest# 基于使用的llm配置 settings.yaml 文件以及.env文件# 加载示例数据mkdir -p ./ragtest/inputcurl https://www.gutenberg.org/cache/epub/24022/pg24022.txt > ragtest/input/book.txt# 生成indexpython -m graphrag.index --root ./ragtest# 对应Indexing部分输出为⠴ GraphRAG Indexer├── Loading Input (text) - 1 files loaded├── create_base_text_units├── create_base_extracted_entities├── create_summarized_entities├── create_base_entity_graph├── create_final_entities├── create_final_nodes├── create_final_communities├── join_text_units_to_entity_ids├── create_final_relationships├── join_text_units_to_relationship_ids├── create_final_community_reports├── create_final_text_units├── create_base_documents└── create_final_documents🚀 All workflows completed successfully.# 执行查询python -m graphrag.query --root ./ragtest --method local “Who is Scrooge, and what are his main relationships?”# 查询返回SUCCESS: Local Search Response: # Ebenezer Scrooge and His Key Relationships…## Ebenezer Scrooge: The Miserly Central Character…## Scrooge’s Past Relationship with Belle…## Scrooge’s Deceased Business Partner: Jacob Marley…## Scrooge’s Relationship with Bob Cratchit and His Family…## Scrooge’s Nephew and Niece…Throughout the story, Ebenezer Scrooge’s relationships with these characters serve as catalysts for his personal growth and redemption, as he is confronted with the consequences of his actions and the importance of kindness, generosity, and embracing the Christmas spirit.

由于查询返回的内容较多,所以并未全部贴出来。从回复的框架来看,在GraphRAG下,对人物的人际关系有了更全面的掌握,这是标准RAG下非常难以实现的效果。

2. 流程解析

GraphRAG的执行过程(例如前面看到的Indexing过程打印出了很多个步骤)是由一个data pipeline组成,目标是将非结构化的数据经过LLM处理,抽取出有意义的信息,并保存为结构化的数据。在Indexing流程执行完毕后,可以在 output/xxx/artifacts/ 目录下看到一组parquet文件,用来存储提取出来(或者经由LLM处理过后的)有意义的信息。

3. Indexing过程

在前面对文档做Indexing过程时,我们可以看到有一系列的过程,包括:

├── Loading Input (text) - 1 files loaded

├── create_base_text_units

├── create_base_extracted_entities

├── create_summarized_entities

├── create_base_entity_graph

├── create_final_entities

├── create_final_nodes

├── create_final_communities

├── join_text_units_to_entity_ids

├── create_final_relationships

├── join_text_units_to_relationship_ids

├── create_final_community_reports

├── create_final_text_units

├── create_base_documents

└── create_final_documents

GraphRAG的Indexing过程由一组workflow、task、prompt template 以及input/output adapters组成。在上述测试中的默认标准pipeline为:

  1. 文档切片(chunk),做Embedding,生成Text Units
  2. 从文本中提取entities、relationships和claims
  3. 在entities中执行community detection
  4. 在多个粒度级别生成community summaries和reports
  5. 将entities嵌入到graph vector space
  6. 将text chunk嵌入到textual vector space

下面我们结合官方文档[3],梳理整个Indexing的默认workflow流程,一共分为6个阶段。

阶段1:构建TextUnits

Workflow的第1个阶段是将输入文档处理并转为TextUnits。TextUnit是在做graph extraction技术的基本单元(也就是一个chunk),也是作为源引用的基本单元。

Chunk size由用户指定,默认为300(overlap默认100)。使用更大的chunk size可以加快处理速度(另一方面,经由验证,改为1200的chunk size,可以得到更positive的结果),但是也会导致较低保真度的输出和较少的有意义的参考文本。

默认为1个document对应多个chunks的关系,但也可以配置多个documents对应多个chunks的关系(适用于document非常短,需要多个文档组成一个有意义的分析单元的场景,例如聊天记录或者推文)。

对于每个text-unit,都会经过text-embedding的操作,并传递给处理pipeline的下一个阶段。

第一阶段的流程如下所示:

在这里插入图片描述

TextUnits实际数据

前面提到,在构建完索引后,可以在output的artifacts中找到生成的parquet结构化数据文件。其中即包含create_base_text_units.parquet。对应内容为:

在这里插入图片描述

可以看到id即为chunk_id。document_ids即为原始document的id。Chunk为切分的原始内容。

阶段2:图提取(Graph Extraction)

在这个阶段,会对text unit进行分析,并提取出组成graph的基本单元:Entities(实体)、Relationships(关系)和Claims(声明)。

流程图为:

在这里插入图片描述

Entities & Relationship提取

在第一步Graph Extraction中,我们使用LLM抽取text unit中的实体和关系。输出为每个text unit的sub-graph,包含一组entities及其对应的名称、类型和描述;以及一组relationships及其源、目标和描述。

然后,将这些sub-graph进行合并。任何具有相同名称和类型的entity视为同一个entity,并将对应的描述内容合并为数组。同样,任何具有相同源和目标的relationship视为同一个relationship,并将其描述合并为数组。

Entity & Relationship Summarization

现在我们有了一个实体和关系的图,每个实体和关系都有一个描述列表,我们可以将这些列表总结为每个实体和关系的单个描述(通过 LLM 对所有描述做摘要)。这样,所有的实体和关系都可以有一个简洁的描述。

Entity解析(默认未启用)

图提取的最后一步是解析“在同一个世界里(或者空间里),不同名称的实体,但实际是同一个实体的情况”,通过LLM完成。目前正在探索其他实体解析技术,以希望达到更保守的、非破坏性的方法。

Claim Extraction & Emission

最后,从原始text unit中提取claim。这些claims代表具有评估状态和时间范围的积极事实陈述,保存为Covariates(包含关于实体的陈述,这些陈述可能是time-bound)并输出

Entity Graph实际数据

原始entities & relationships抽取后生成的对应文件为create_base_extracted_entities.parquet文件。可以看到文件内容只有1行,对应的是entity_graph,可以看到其是一个GraphML格式的图表示。

在这里插入图片描述

既然是GraphML的格式,那就表示我们可以将其可视化,对应的可视化图(使用Gephi生成,输出的文件可能不是规整文件,需要二次处理):

在这里插入图片描述

从抽取的实体关系来看,可以看到关键人物的实体,例如实体BOB(ID与LABEL均为BOB),类型为”PERSON”(其描述为一个列表,包含了各个相关chunk中对BOB的描述),与之有关系的实体包括TINY TIM、PERTER、BOB’s CHILD等。另一方面,我们也可以看到一些相对来说没有太大意义的实体,例如WEATHER、FIRE、HIM、SUMMER、GAIN等,这些实体对应的类型和描述均为None,且source chunk也仅有1个。

除了节点外,各个边也有相应的描述,例如BOB和PETER之间的关系描述(Bob is Peter’s father…):

在这里插入图片描述

在原始图构建出来后,会再次进行加工,生成summarized_entities图。通过对比同一个实体BOB来看。在原始entity图中对BOB的描述为多段,通过空格分隔。在summarized_entities图中,对BOB的描述为1段总结描述。对“边”的描述也是同样的处理方式。

阶段3:图增强(Graph Augmentation)

现在有了一个可用的实体和关系图,接下来希望了解它们的社区结构,并用附加信息来增强这个图。这分为两个步骤进行:Community Detection和Graph Embedding。使得我们能够以显式(community)和隐式(embedding)的方式理解图的拓扑结构。

在这里插入图片描述

Community Detection

在此步骤中,使用Hierarchical Leiden 算法生成实体社区的层次结构。此方法将对我们的图进行递归社区聚类,直到达到社区大小阈值。这使我们能够理解图的社区结构,并提供一种在不同粒度级别上导航和总结图的方法。

Graph Embedding

在此步骤中,使用 Node2Vec 算法生成图的向量表示。这将使我们能够理解图的隐式结构,并在查询阶段提供一个额外的向量空间,用于搜索相关概念。

Graph Tables Emission

一旦图增强步骤完成,经过文本嵌入后(Entity描述做embedding写入向量数据库),生成最终的Entities表和Relationships表。

Graph Augment实际数据

在这个workflow中,我们知道首先会做社区检测,对应的结果会保存在create_final_communities.parquet文件中,下面是文件部分内容:

在这里插入图片描述

可以看到每行是一个社区的信息,包括所属层级,所包含的关系id以及text unit id。通过pandas进行分析可以发现,一共生成了67个社区,社区层级划分为4个层级。

上文也提到,这个流程最终会生成Entities表和Relationships表的数据,对应的文件分别为create_final_entities.parquet 和 create_final_relationships.parquet。

最终Entities表的内容为:

在这里插入图片描述
在这里插入图片描述

可以看到对每个实体,都标注了其类型(例如上图的BOB实体类型为PERSON),描述,以及描述对应的embedding向量(会存入向量数据库,默认为lancedb)。

对应的relationship存储结构化后的关系表示:

在这里插入图片描述

阶段4:社区总结(Community Summarization)

此时,我们已经拥有了实体和关系的功能性图谱、实体的社区层次结构以及 node2vec 生成图的嵌入式表达。

现在我们要基于社区数据生成每个社区的报告。这使我们能够在多个粒度上对图进行高层次理解。例如,如果社区 A 是顶级社区,我们将获得关于整个图的报告。如果社区是低级社区,我们将获得关于本地集群的报告。

在这里插入图片描述

生成社区报告

在这个步骤中,使用 LLM 为每个社区生成摘要。这使我们能够理解每个社区包含的独特信息,并从高层次或低层次的角度提供对图的范围理解。这些报告包含一个概述,以及引用社区子结构中的关键实体、关系和声明。

总结社区报告

在此步骤中,每个社区报告通过 LLM 进行总结,进行简化。

Community Embedding

在此步骤中,我们通过生成社区报告、社区报告摘要和社区报告标题这三段文本的文本嵌入,生成社区的向量表示。

社区表生成

在此时,进行一些记录工作并生成Communities和CommunityReports两张表。

社区总结实际数据

社区总结后的数据会写入create_final_comunity_reports.parquet文件:

在这里插入图片描述

可以看到,在表中记录了社区的描述、总结,以及对其做的重要性评级与原因。

阶段5: 文档处理

这阶段为知识模型创建Documents表。

在这里插入图片描述

增加列(仅限 CSV 数据)

如果处理的是 CSV 数据,可以配置工作流向文档输出添加额外字段。这些字段应存在于输入的 CSV 表中。

链接到Unit Text

在此步骤中,将每个文档与第一阶段创建的text-unit链接。这使我们能够理解哪些document与哪些text-unit相关,反之亦然。

文档嵌入

在此步骤中,通过文档片段的平均嵌入生成文档的向量表示。首先对文档进行re-chunk,且不使用overlap,然后为每个chunk生成embedding。然后创建这些chunk的加权平均值(根据 token 数量加权)并将作为document embedding。这可以帮助我们理解文档之间的隐含关系,并帮助我们生成文档的网络表示。

文档表输出

将文档表输出到知识模型中。

文档处理实际数据

这个步骤会输出create_final_documents.parquet文件,内容为:

在这里插入图片描述

由于我们只有1个文档,所以仅有1行。

阶段6:网络可视化

在这个阶段,执行一些步骤以支持现有图中高维向量空间的网络可视化。此时,有两个逻辑图在发挥作用:实体关系图和文档图。

网络可视化工作流

对于每个逻辑图,我们进行 UMAP 降维以生成图的二维表示。这将使我们能够在二维空间中可视化图,并理解图中节点之间的关系。UMAP embedding的结果会作为Nodes表输出。该表的行包括一个指示符,表明节点是文档还是实体,以及 UMAP 坐标。

网络可视化实际数据

这部分数据会生成create_final_nodes.parquet文件。从文件内容来看,每个节点是一个实体信息,以及对应的社区、degree、源id等。但是graph_embedding与x、y坐标均为空或0。

4. Querying过程

从上面的介绍,我们了解到在构建索引的过程中,GraphRAG会生成实体关系图、社区层级结构,以及它们的sumamry、source chunk等各种维度的信息,以向量和结构化的方式进行存储。下面我们介绍在检索时如何使用这些信息来做信息增强。

Query分两种类型,分别为Local Search和Global Search。

4.1. Local Search

Local Search是一种基于Entity的回答模式。它结合知识图谱中的结构化数据和输入文档中的非结构化数据,在查询时通过相关实体信息扩展 LLM 上下文。该方法非常适合回答需要理解输入文档中提到的具体实体的问题(例如,“洋甘菊的治疗属性是什么?”)。

其流程图如下所示:

在这里插入图片描述

给定用户查询(或加上对话历史记录),Local Search会从知识图谱中识别出一组与用户输入在语义上相关的实体。这些实体作为进入知识图谱的入口点,能够提取进一步相关的细节,如相连实体、关系、实体协变量(与实体相关的变量)和社区报告。此外,它还从原始输入文档中提取与已识别实体相关的相关文本chunk。然后对这些候选数据源进行优先级排序和过滤,以适应预定义大小的单个上下文窗口,该窗口用于生成对用户查询的响应。

4.2. Global Search

Global Search是基于整个数据集的推理。常规RAG在处理需要跨数据集聚合信息后进行组合回答的场景时很难有很好的表现。例如,“数据中的top 5主题是什么?”这种问题查询效果会很差,因为常规RAG的处理方式是:依赖于数据集中存在语意相似的文本内容的向量检索。如果知识库中没有文本内容包含这个问题的答案,则无法给出高质量的回答。

然而,使用 GraphRAG 可以回答此类问题,因为 LLM 生成的知识图谱的结构可以告诉我们整个数据集的结构(以及主题)。这使得私有数据集能够组织成有意义的语义clusters,并且这些clusters已被预先总结。通过使用我们的全局搜索方法,LLM 在响应用户查询时可以使用这些cluster来总结这些主题,并回答用户对整个数据集的问题。

其流程图如下所示:

在这里插入图片描述

给定用户查询(或加上对话历史记录),Global Search使用从图的社区层次结构中指定级别生成的一系列 LLM 社区报告作为上下文数据,以 map-reduce 方式生成响应。在 map 步骤中,社区报告被分割成预定义大小的文本chunks。每个文本chunk然后用于生成一个中间响应,其中包含一个要点列表,每个要点都附有一个表示该要点重要性的数值评级。在 reduce 步骤中,从中间响应中筛选出最重要的要点进行汇总,并将其用作上下文生成最终响应。

全局搜索响应的质量会受到用于社区报告来源的社区层次结构级别的显著影响。较低的层次级别报告更为详细,通常会产生更为全面的响应,但由于报告数量的增加,这也可能增加生成最终响应所需的时间和 LLM 资源。

5. 总结

从初步使用以及对Indexing与Querying的流程了解,可以看到GraphRAG的优点非常明显:

  1. 知识全面:得益于在Indexing过程中构建的实体关系图、社区、原始文档切片等信息,在内容检索时(包含向量检索与结构化数据检索),它能够获取到更丰富、更多层的信息,提供更全面的回答
  2. 有据可查:在生成各个索引的过程中,都引入了源文档chunk,保持对源数据的忠诚,使得回答可靠

另一方面,其缺点也非常明显:

  1. 耗时长、成本高:在Indexing的过程中,需要频繁调用LLM(例如抽取实体、实体和关系的总结、社区总结等)并调用外部算法(例如社区检测),会使得索引时间拉长,并且LLM调用成本高昂(这点在未来可能会有缓解,例如GPT-4o mini的推出,极大降低了LLM调用的成本)
  2. 扩展性:在数据集膨胀到更高数量级时,除了耗时与成本更长外,其构建Indexing过程的稳定性也需要进一步测试
  3. 延迟高:由于在检索时需要进行多路召回、过滤和排序,所以在回答问题延迟上也会相应增加

除此之外,还一个可能的缺点是“指代消解”的情况。从上面我们看到的实体关系图中,可以看到例如HIM、GAIN这类指示意义不明的词,也会存在例如同一实体的不同名称可能成为单独实体节点的情况。从而埋下信息不准确的隐患。

总的来说,笔者仍然认同GraphRAG是一个非常强大的工具,它可以提高从非结构化数据中提取Insight的能力,弥补现有RAG模式的不足。但它在耗时、成本、扩展性等方面仍会是在应用到生产环境中的几大挑战点。

最后,在测试阶段我们使用了默认给的英文数据集。下一步我们使用中文语料构建一个GraphRAG场景,并结合代码的方式再深入介绍检索流程。

如何系统的去学习AI大模型LLM ?

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料 包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来

😝有需要的小伙伴,可以V扫描下方二维码免费领取🆓

在这里插入图片描述

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

在这里插入图片描述

四、AI大模型商业化落地方案

img

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。
  • 内容
    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
      - L1.4.1 知识大模型
      - L1.4.2 生产大模型
      - L1.4.3 模型工程方法论
      - L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
  • 内容
    • L2.1 API接口
      - L2.1.1 OpenAI API接口
      - L2.1.2 Python接口接入
      - L2.1.3 BOT工具类框架
      - L2.1.4 代码示例
    • L2.2 Prompt框架
      - L2.2.1 什么是Prompt
      - L2.2.2 Prompt框架应用现状
      - L2.2.3 基于GPTAS的Prompt框架
      - L2.2.4 Prompt框架与Thought
      - L2.2.5 Prompt框架与提示词
    • L2.3 流水线工程
      - L2.3.1 流水线工程的概念
      - L2.3.2 流水线工程的优点
      - L2.3.3 流水线工程的应用
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
  • 内容
    • L3.1 Agent模型框架
      - L3.1.1 Agent模型框架的设计理念
      - L3.1.2 Agent模型框架的核心组件
      - L3.1.3 Agent模型框架的实现细节
    • L3.2 MetaGPT
      - L3.2.1 MetaGPT的基本概念
      - L3.2.2 MetaGPT的工作原理
      - L3.2.3 MetaGPT的应用场景
    • L3.3 ChatGLM
      - L3.3.1 ChatGLM的特点
      - L3.3.2 ChatGLM的开发环境
      - L3.3.3 ChatGLM的使用示例
    • L3.4 LLAMA
      - L3.4.1 LLAMA的特点
      - L3.4.2 LLAMA的开发环境
      - L3.4.3 LLAMA的使用示例
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
  • 内容
    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

学习计划:

  • 阶段1:1-2个月,建立AI大模型的基础知识体系。
  • 阶段2:2-3个月,专注于API应用开发能力的提升。
  • 阶段3:3-4个月,深入实践AI大模型的应用架构和私有化部署。
  • 阶段4:4-5个月,专注于高级模型的应用和部署。
这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

在这里插入图片描述

  • 7
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值