模块化RAG:RAG新范式,像乐高一样搭建 万字长文

1. RAG系统的发展历史与问题

RAG(检索增强生成)通过访问外部知识库,检索增强生成(RAG)为 LLMs 提供了关键的上下文信息,极大地提升了其在知识密集型任务上的表现。RAG 作为一种增强手段,已在众多实际应用场景中广泛运用,涵盖知识问答、推荐系统、客户服务以及个人助手等领域。

RAG 技术的发展可归结为三个阶段:

  • • 起初,检索增强技术被引入,提升预训练语言模型在知识密集型任务上的表现。比如:

  • • Retro 通过检索增强优化了预训练的自回归模型。

  • • Atlas 则运用了检索增强的少样本微调手段,使语言模型能适应各类任务。

  • • IRcot 通过融合思维链和多步检索流程,进一步丰富了推理阶段的推理过程。

  • • 第二阶段,随着大型语言模型(LLM)的语言处理能力大幅提升,检索增强技术开始充当补充额外知识和提供参考的途径,以减少幻觉。例如:

  • • RRR 改进了重写阶段

  • • LLMlingua 去除了检索所得文档块中的冗余标记。

  • • 随着 RAG 技术的持续进步,研究愈发精细且集中,实现了与图神经网络和微调技术等其他技术的创新融合。整体流程也更趋灵活,比如利用大型语言模型主动确定检索和生成的时机 。

几乎每一篇讨论RAG的论文都会讨论RAG存在的问题。

RAG 发展初期,其核心框架由索引、检索和生成构成,这种范式被称作朴素 RAG。随着任务复杂程度和应用需求的提升,朴素 RAG 的局限性愈发凸显。

如上图所示,朴素RAG主要依赖于块的简单相似性,在应对复杂查询和具有显著变异性的块时,表现欠佳。

朴素 RAG 存在的问题主要包括:

  • 1)对查询的理解不够深入。 查询和文档块之间的语义相似度并非总是高度一致。仅依靠相似度计算进行检索,缺乏对查询与文档间关系的深度探究。

  • 2)检索存在冗余和噪声。 将所有检索到的块直接输入到 LLMs 并非总是有益。研究表明,过多的冗余和噪声信息可能会干扰 LLM 对关键信息的识别,从而增加生成错误和幻觉响应的风险。

为了克服以上局限,大家提出了高级RAG,高级RAG注重优化检索阶段,旨在提升检索效率,并强化对检索块的利用,典型策略涵盖预检索处理和后检索处理。例如,采用查询重写使查询更清晰、具体,进而提高检索的精准度,对检索结果进行重新排序以增强 LLM 识别和利用关键信息的能力。

尽管高级RAG有所改进,但是仍然与实际应用与需求之间存在差距:随着 RAG 技术的发展,用户期望提高,需求持续演变,应用设置也变得更为复杂。例如,异构数据的整合以及对系统透明度、控制和可维护性的新需求。

为达成更精准和高效的任务执行,现代 RAG 系统正逐步融合更复杂的功能,比如以知识图谱的形式构建更精细的索引库,通过查询构建方法整合结构化数据,以及运用微调技术让编码器更好地适应特定领域的文档

在流程设计方面,当前的 RAG 系统已超越传统的线性检索生成范式。研究人员采用迭代检索获取更丰富的上下文,利用递归检索处理复杂查询,以及借助自适应检索提供整体的自主性和灵活性。这种流程上的灵活性显著增强了 RAG 系统的表达力和适应性,使其能更好地适应各类应用场景。然而这使得RAG系统的架构越来越复杂,越来越多的新问题不断出现:

  • 复杂数据源集成:RAG 不再局限于单一的非结构化文本数据源类型,而是拓展至涵盖诸如表格之类的半结构化数据以及像知识图谱这样的结构化数据。获取来自多个来源的异构数据,能够为系统赋予更丰富的知识背景以及更可靠的知识验证能力。

可解释性、可控性和可维护性方面的新需求:随着系统复杂度的提升,系统维护和调试变得更具挑战。此外,当问题出现时,必须迅速锁定需要优化的特定组件。

组件的选择与优化:更多的神经网络融入 RAG 系统,需要挑选适宜的组件以满足特定任务和资源配置的需求。而且,新的组件虽提升了 RAG 的效能,但也带来了新的协作工作要求。确保这些模型按预期运行并高效协同,以提升整体系统性能,这一点至关重要。

工作流的编排与调度:组件可能需要依照特定顺序执行,在某些条件下并行处理,甚至由 LLM 根据不同的输出进行判定。对工作流进行合理规划,对于提高系统效率和达成预期成果至关重要。

为了应对以上这些问题,今天这篇论文作者提出了模块化 RAG 架构。

2. 什么是模块化RAG架构?

在这里插入图片描述

在现代计算系统中,模块化正成为一种趋势。能够增强系统的可扩展性和可维护性,并通过流程控制实现高效的任务执行。模块化 RAG 架构分为三个层级:

  • • 顶层聚焦于 RAG 的关键阶段,其中每个阶段都视作一个独立的模块。该层级不仅继承了高级 RAG 范式的主要流程,还引入了一个编排模块来调控 RAG 流程的协同。

  • • 中间层由每个模块内的子模块组成,进一步细化和优化功能。

  • • 底层由基本操作单元——操作符构成。

在模块化 RAG 框架内,RAG 系统能够以计算图的形式呈现,其中节点代表特定的操作符。模块化 RAG 是在 RAG 先前发展的基础上演化而来的。这三个范式(朴素RAG、高级RAG和模块化RAG)之间的关系是继承与发展的关系。高级 RAG 是模块化 RAG 的一种特殊情形,而朴素 RAG 是高级 RAG 的一种特殊情形。

3. 六大模块

模块化RAG包括六个主要模块:索引、预检索、检索、后检索、生成和编排。

3.1 索引(Indexing)

索引指的是把文档分割为可管理的块的过程,是组织系统的关键步骤。

索引面临着三个主要难题。

  • •1. 内容表述不完整。

块的语义信息受分割方式影响,致使在较长的语境中重要信息的丢失或被掩盖。

  • •2. 块相似性搜索不准确。

随着数据量增多,检索中的噪声增大,导致频繁与错误数据匹配,使得检索系统脆弱且不可靠。

  • •3. 参考轨迹不明晰。

检索到的块可能来自任何文档,没有引用痕迹,可能出现来自多个不同文档的块,尽管语义相似,但包含的却是完全不同主题的内容。

3.1.1 块优化

块的大小以及块之间的重叠,在 RAG 系统的整体有效性中起着关键作用:

  • • 较大的块能捕捉更多的上下文,但也会产生更多噪声,需要更长的处理时间和更高的成本。

  • • 而较小的块可能无法完整传达必要的上下文,不过噪声较小。

滑动窗口:在滑动窗口中使用重叠块能增强语义转换。这种方法也存在一些局限性,如上下文大小控制不精准、单词或句子可能被截断以及缺乏语义考量等。

增加元数据:块可以用元数据(比如页码、文件名、作者、时间戳、摘要或相关问题)进行丰富。这些元数据允许进行筛选检索,缩小搜索范围。

从小到大:将用于检索的块和用于合成的块区分开。较小的块能提高检索的准确性,较大的块能提供更多的上下文。一种方法是检索较小的总结块,并参考其较大的父块。或者,可以检索单个句子及其周边的文本。

3.1.2 结构组织

增强信息检索的一种有效方式是为文档构建层次结构。通过构建块结构,RAG 系统能够加快相关数据的检索和处理。

分层索引:在文档的分层结构中,节点按父子关系排列,并与块相连接。每个节点都存储着数据摘要,有助于快速遍历数据,并协助 RAG 系统确定要提取哪些块。这种方法还能减轻因块提取问题产生的错觉。构建结构化索引的方法主要包括:

  • •1. 基于文档中的段落和句子分割的结构。

  • •2. 基于 PDF、HTML 和 Latex 中固有结构。

  • •3. 基于文本语义识别和分割的语义。

KG 索引:使用知识图(KGs)来构建文档有助于通过厘清概念和实体之间的联系来保持一致性,降低不匹配错误的风险。还能将信息检索转化为语言模型可理解的指令,提高检索的准确性并实现上下文连贯的响应。这提升了 RAG 系统的整体效率。

3.2 预检索(Pre-retrieval)

朴素 RAG 的一大主要挑战在于它直接将用户的原始查询当作检索的基础。制定精确清晰的问题颇具难度,欠妥的查询会致使检索效果欠佳。此模块的主要挑战包含:

  • • 1)查询措辞不当。问题本身复杂,语言组织欠佳。

  • • 2)语言的复杂性与歧义性。语言模型在应对专业词汇或含义多样的模糊缩写时常常遭遇困境。比如,它们或许无法判别 LLM 指的是大型语言模型还是法律语境中的法学硕士。

3.2.1 查询扩展

将单个查询拓展为多个查询,丰富了查询内容,为弥补特定细微差异的缺失提供了更多上下文,从而确保生成答案的最佳相关性。

多查询:借助提示工程通过大型语言模型来扩展查询,而且并行执行。这些扩展经过精心设计以保障多样性和覆盖度。不过,这种方式可能会淡化用户的原始意图。为减轻这一情况,可指示模型给予原始查询更大的权重。

子查询:通过分解和规划复杂问题,会生成多个子问题。具体而言,可以采用从少到多的提示来将复杂问题分解为一系列更简单的子问题。依照原始问题的结构,生成的子问题能够并行或顺序执行。另一种方法涉及使用验证链(CoVe)。扩展后的查询由大型语言模型进行验证,以达成减少幻觉的效果。

3.2.2 查询转换

依据转换后的查询而非用户的原始查询进行检索和生成。

重写(Rewrite):原始查询在现实场景中的检索常常存在不足。为解决此问题,可以提示大型语言模型进行重写。也可运用专门的较小模型来达成此目的 。**淘宝中查询重写方法的实施显著提升了长尾查询的召回效果,促使 GMV 增长 **。

HyDE:为弥合问题与答案之间的语义差距,它在回应查询时构建假设文档(假设答案),而非直接搜索查询。它侧重于从答案到答案的嵌入相似性,而非寻求针对问题或查询的嵌入相似性。此外,它还包含反向 HyDE,为每个块生成假设查询,并专注于从查询到查询的检索。

回退提示(Step-back Prompting):原始查询被抽象为一个高级概念问题(回退问题)。在 RAG 系统中,回退问题和原始查询均用于检索,且将它们的结果相结合来生成语言模型的答案。

3.2.3 查询构建

除文本数据外,诸如表格和图形数据等越来越多的结构化数据正被融入 RAG 系统。为适配各类数据类型,重构用户的查询很有必要。这涉及将查询转化为其他查询语言以访问替代数据源,常见方法有 Text-to-SQL 或 Text-to-Cypher 等。结构化查询语言(如 SQL、Cypher)常与语义信息和元数据结合,用于构建更复杂的查询。

3.3 检索(Retrieval)

检索过程在 RAG 系统中举足轻重,提升检索效果需考虑的三个主要方面包括检索效率、质量以及任务、数据和模型的对齐。

3.3.1 检索器选择

随着 RAG 技术的广泛应用,嵌入模型的发展势头正盛。除基于统计的传统模型和基于编码器结构的预训练模型外,在大型语言模型上微调的嵌入模型也展现出强大的能力。然而,它们往往参数更多,导致推理和检索效率欠佳。故而,依据不同任务场景选择合适的检索器至关重要。

稀疏检索器(Sparse Retriever):用统计方法将查询和文档转化为稀疏向量。其优势在于处理大型数据集时效率高,只关注非零元素。但在捕捉复杂语义方面,可能不如密集向量有效。常见方法包括 TF-IDF 和 BM25。

密集检索器(Dense Retriever):使用预训练的语言模型(PLMs)为查询和文档提供密集表示。尽管计算和存储成本较高,却能提供更复杂的语义表示。典型模型有 BERT 结构的 PLMs,如 ColBERT,以及多任务微调模型,如 BGE 和 GTE 。

混合检索器(Hybrid Retriever ):是同时使用稀疏和密集检索器。两种嵌入技术相互补充,以提高检索效果。稀疏检索器能提供初始筛选结果。此外,稀疏模型增强了密集模型处理含罕见实体查询的零样本检索能力,从而增强系统的稳健性。

3.3.2 检索器微调

在上下文可能与预训练语料库有差异的情况下,尤其是在医疗保健、法律等具有大量专有术语的高度专业化领域。虽然这种调整需要额外付出努力,但能大幅提高检索效率和领域对齐度。

监督微调(Supervised Fine-Tuning,SFT):基于有标记的领域数据微调检索模型通常借助对比学习来实现。这涉及缩短正样本间的距离,同时拉大负样本间的距离。

LM 监督检索器(LM-supervised Retriever,LSR):与直接从数据集中构建微调数据集不同,LSR 借助 LM 生成的结果作为监督信号,在 RAG 流程中对嵌入模型进行微调。

适配器(Adapter):有时,对大型检索器进行微调可能成本很高,尤其是在处理像 gte-Qwen 这类基于 LLMs 的检索器时。在这种情况下,通过融入一个适配器模块并进行微调可以缓解此情况。添加适配器的另一个好处是能够更好地与特定的下游任务相适配 。

3.4 检索后

将所有检索到的块直接输入到 LLM 并非最佳选择,对块进行后处理有助于更好地利用上下文信息。主要的挑战包括:

  • • 1)中间内容丢失(Lost in the middle)。像人类一样,LLM 往往只记得长文本的开头或结尾,而遗忘中间部分 。

  • • 2)噪声/反事实块(Noise/anti-fact chunks)。检索到的有噪声或事实上相互矛盾的文档可能会影响最终的检索生成 。

  • • 3)上下文窗口(Context Window)。尽管检索到了大量相关内容,但大型模型中上下文信息长度的限制导致无法涵盖所有这些内容。

3.4.1 重新排序

在不改变其内容或长度的情况下对检索到的块进行重新排序,以提升更关键文档块的可见性。

规则基重新排序:依照某些规则计算指标来对块进行重新排序。常见的指标包括:多样性、相关性和 MRR(Maximal Marginal Relevance,最大边际相关性) 。其思路是减少冗余并增加结果的多样性。MRR 基于查询相关性和信息新颖性的组合标准为最终的关键短语列表选取短语。

模型基重新排序:利用语言模型对文档块重新排序,通常依据块与查询之间的相关性。重新排序模型已成为 RAG 系统的重要组成部分,相关模型技术也在不断迭代升级。重新排序的范围还扩展到了多模态数据,比如表格和图像 。

3.4.2 压缩

在RAG流程中,人们普遍认为,尽可能多地检索相关文档,并将它们串联起来形成冗长的检索提示,是有益的。但这种认知其实是个误区。过多的上下文信息可能会带来噪声,影响大型语言模型(LLM)捕捉关键信息的能力。为了解决这个问题,通常采用压缩和筛选检索内容的方法。

LLMLingua:利用经过对齐和训练的小语言模型,比如GPT-2 Small或LLaMA-7B,可以从提示中识别并剔除不重要的标记,将其转化为一种对人类来说晦涩难懂,但对LLMs却易于理解的形式。这种方法提供了一种直接而实用的提示压缩方式,无需对LLMs进行额外训练,同时保持了语言的完整性和压缩比的平衡。

3.4.3 选择

与压缩文档内容不同,选择是直接移除无关的文档块。

选择性上下文:通过识别并剔除输入上下文中的冗余内容,可以精炼输入,从而提升语言模型的推理效率。在实际操作中,选择性上下文根据基础语言模型计算的自信息来评估词汇单元的信息量。通过保留自信息更高的内容,这种方法提供了一种更简洁、高效的文本表示方式,且不会影响其在多样化应用中的表现。然而,这种方法忽略了压缩内容与目标语言模型以及用于提示压缩的小语言模型之间的相互依赖性

LLM-Critique:另一种直接而有效的方法,是在生成最终答案前,让LLM评估检索到的内容。这允许LLM通过LLM批评机制,过滤掉相关性不高的文档。例如,在Chatlaw中,LLM被引导自我推荐相关法律条款,以评估其相关性。

3.5 生成(Generation)

利用LLM根据用户的查询和检索到的上下文信息生成答案。选择一个符合任务需求的合适模型,考虑微调需求、推理效率和隐私保护等因素。

3.5.1 生成器微调

除了直接使用LLM外,根据场景和数据特征进行有针对性的微调,可以带来更好的效果。这也是使用本地部署LLMs的一个显著优势。

指令微调(Instruct-Tuning):当LLMs在特定领域缺少数据时,可以通过微调为其提供额外的知识。通用的微调数据集可以作为第一步。微调的另一个好处是能够调整模型的输入和输出,例如,使LLM适应特定的数据格式,并根据指令以特定风格生成响应。

强化学习(Reinforcement learning):通过强化学习来让大型语言模型(LLM)的输出与人类或检索器的偏好相契合,是一种颇具潜力的方法。例如,对最终生成的答案进行手动标注,然后借助强化学习给予反馈。除了与人类的偏好达成一致,与微调模型和检索器的偏好相符合也是可行的。

双重微调(Dual Fine-tuing):同时对生成器和检索器进行微调,以实现它们偏好的一致。一种典型的方式,如 RA-DIT,利用 KL 散度来对齐检索器和生成器之间的评分函数。

3.5.2 验证(Verification)

尽管 RAG 提升了大型语言模型生成答案的可靠性,但在众多场景中,它需要将幻觉出现的概率降至最低。因此,可以通过额外的验证模块来筛除不符合要求标准的响应。常见的验证方法包含基于知识库的和基于模型的。

知识库验证:通过外部知识直接对大型语言模型生成的响应进行验证。通常,先从响应中提取特定的陈述或三元组。而后,从经过验证的知识库(如维基百科或特定的知识图谱)中检索相关证据。最后,将每个陈述与证据逐步比对,以判定该陈述是得到支持、被驳斥还是信息不足。

基于模型的验证:运用小型语言模型来验证大型语言模型生成的响应。给定输入问题、检索到的知识和生成的答案,训练一个小型语言模型来判别生成的答案是否正确反映了检索到的知识。此过程被设定为一道选择题,验证器需要判断答案是否反映了正确答案。如果生成的答案未正确反映检索到的知识,可迭代地重新生成答案,直至验证器确认答案正确。

3.6 编排(Orchestration)

编排涉及管理 RAG 过程的控制模块。与传统固定流程的僵化方式不同,RAG 如今在关键节点纳入决策,并依据先前的结果动态选择后续步骤。这种自适应和模块化的能力是模块化 RAG 的显著特征,使其有别于更为简单的朴素和高级 RAG 范式。

3.6.1 路由

面对不同的查询,RAG 系统会路由到为不同场景定制的特定管道,这是为应对各种情况而设计的多功能 RAG 架构的基本特性。需要一个决策机制,依据来自模型的输入或补充的元数据,来确定将启用哪些模块。针对不同的提示或组件采用不同的路由。

3.6.2 调度

RAG 系统在复杂性和适应性方面不断演进,能够借助复杂的调度模块来管理流程。调度模块在模块化 RAG 中发挥着关键作用,能识别需要外部数据检索的关键节点,评估响应的充分性,并决定是否需要进一步的调查。它通常用于涉及递归、迭代和自适应检索的场景,确保系统能就何时停止生成或启动新的检索循环做出明智决策。

规则判断(Metadata routing):后续步骤由一组既定规则支配。通常,系统通过评分机制评估生成答案的质量。继续或停止该过程的决策取决于这些分数是否超过某些预定阈值,这些阈值通常与单个token的置信水平有关,接受 的条件是其中的所有令牌必须具有大于或等于阈值的相关概率。若不满足此条件,系统会重新生成新答案。

LLM 判断(Semantic routing)。LLM 独立决定后续的行动。有两种主要方式来实现这种能力:

  • • 第一种方式利用 LLM 的上下文学习能力,并通过提示工程进行判断。这种方式的一个显著优点是无需对模型进行微调。然而,判断输出的格式取决于 LLM 对所提供指令的遵循情况。

  • • 第二种方式涉及 LLM 生成特定token,通过微调来启动有针对性的行动。这种技术源自 Toolformer ,已被集成到像 Self-RAG 这样的框架中。这使得对 LLM 的行动有了更直接的控制机制,增强了系统对对话上下文中特定触发因素的响应能力。不过,它需要生成大量符合要求的指令集来微调 LLM。

知识驱动的调度策略(Knowledge-guide schedulin):突破了基于规则的方法的局限,也不再完全依赖大型语言模型(LLM)来控制流程,而是采用了一种更为灵活的中间策略——知识引导的调度。通过知识图谱的强大功能,引导检索和生成过程。从知识图谱中提取与问题相关的信息,构建一个由逻辑上相互关联的节点组成的推理链,每个节点都承载着解决问题的关键信息。基于这一推理链的节点信息,可以分别进行信息检索和内容生成。整合这种方法,不仅提升了问题解决的效率和精确度,也使得提供的解释更加清晰明了。

3.6.3 融合

随着RAG进程的发展,已经超越了单一的线性流程,经常需要扩大检索范围或通过探索多条流水线来增加多样性。在扩展到各个分支之后,融合模块有效地整合了信息,确保了全面且连贯的响应。融合模块的作用不仅仅是合并答案,还要确保最终输出内容丰富,并且能够反映出问题的多维度特性。

LLM融合(LLM fusion):将多分支的信息聚合起来最直接的方法之一是利用LLMs的强大功能来分析和整合不同分支的信息。然而,这种方法在处理超出LLM上下文窗口限制的长答案时也面临挑战。为了解决这个问题,通常的做法是先对每个分支的答案进行总结,提取关键信息,然后再将其输入到LLM中,以确保即使在长度受限的情况下也能保留最重要的内容。

加权集成(Weighted ensemble ):从多个分支生成的不同标记的加权值,以实现对最终输出的全面选择。权重是根据文档与输入查询之间的相似性得分来确定的。权重通过使用softmax函数来计算,确保了权重的归一化,并且总和为一。

互反排名融合(RRF ,Reciprocal Rank Fusion):将多个检索结果的排名合并成一个统一的列表。它采用定制的加权平均方法来提高整体的预测性能和排名精度。优势在于其动态权重分配,这种分配是由分支之间的相互作用所决定的。在模型或来源的异质性特别显著的场景中,RRF尤其有效,它可以显著提高预测的准确性。

4. RAG 流与流模式

模块化的 RAG 流能够分解为子函数的图。通过控制逻辑,运算符能够在预设的管道中执行,同时在必要时进行条件、分支或循环操作。在最简单的情形下,该图为一个线性链。

4.1 线性模式(Linear Pattern)

常见的线性 RAG 流在预检索阶段涉及查询转换模块(例如重写或 HyDE 运算符),并在检索后阶段运用重新排序。重写 - 检索 - 读取(RRR)是一种典型的线性结构。

如上图所示,查询重写模块 te 是在 T5-large 上微调的较小的可训练语言模型,在强化学习的背景下,重写器的优化被形式化为马尔可夫决策过程,LLM 的最终输出作为奖励。检索器采用稀疏编码模型,BM25。

4.2 条件模式(Conditional Pattern)

具有条件结构的 RAG 流涉及依据不同条件选取不同的 RAG 管道,如上图所示。管道的选择是通过路由模块实现的,该模块决定流中的下一个模块。

例如,对于与严肃问题、政治事务或娱乐主题相关的问题,对大型语言模型生成的响应的容忍度各不相同。这些路由流在检索源、检索过程、配置、模型和提示等方面常常存在差异。

4.3 分支(Branching)

在许多情况下,RAG 流系统可能存在多个并行运行的分支,通常是为了增加生成结果的多样性。

预检索分支化(多查询并行检索):

后检索分支化(单查询并行生成):

REPLUG 展现了一种典型的后检索分支化架构,它预测了每个分支上每个标记的概率。通过加权可能性的集成,各分支结果被综合起来,最终生成的输出用于通过反馈机制对检索器进行微调,这个检索器被称为Contriever。

在这里插入图片描述

4.4 循环模式(Loop Pattern)

具有循环结构的 RAG 流,是模块化 RAG 的一项重要特性,涵盖相互依存的检索与生成步骤,也包含用于流程控制的调度模块。

循环模式可进一步划分为迭代、递归和自适应(主动)检索方式。

4.4.1 迭代检索(Iterative retrieval)

单次的检索和生成或许无法有效处理需要大量知识的复杂问题,所以RAG 中能采用迭代方法,包含固定数量的检索迭代。

迭代检索的一个典型示例为 ITER-RETGEN (如上图),它对检索增强生成和生成增强检索进行迭代。检索增强生成基于所有检索到的知识针对任务输入给出响应。在每次迭代中,ITER-RETGEN 借助前一次迭代的模型输出作为特定情境来辅助检索更多相关知识。循环的终止由预先设定的迭代次数决定。

4.4.2 递归检索(Recursive retrieval)

与迭代检索不同,递归检索的显著特点在于其对前一步骤的明确依赖以及检索的不断深入。通常,它遵循树状结构,并且具备清晰的终止机制作为递归检索的退出条件。

在 RAG 系统中,递归检索通常涉及查询变换,依靠每次检索时新重写的查询。递归检索的一个典型实现如 ToC,涉及递归执行 RAC(递归增强澄清,Recursive Augmented Clarification),从初始的模糊问题(AQ,ambiguous question)逐步将子节点插入到澄清树中。在每个扩展步骤,依据当前查询对段落进行重新排序以生成明确的问题(DQ,disambiguous Question)。当达到最大有效节点数或最大深度时,对树的探索便告结束。一旦构建好澄清树,ToC 收集所有有效节点并生成一个全面的长文本答案来解决 AQ。

4.4.3 自适应(主动)检索(Adaptive (Active) retrieval)

随着 RAG 的发展,逐渐从被动检索转向了自适应检索的出现,也就是主动检索,这在一定程度上得益于 LLM 的强大能力。它与 LLM 代理有着相同的核心概念。RAG 系统能够主动确定检索的时机,并决定何时结束整个流程并得出最终结果。依照判断标准,这可进一步细分为基于提示和基于调整的方法。

4.4.3.1 基于提示(Prompt-base)

在这里插入图片描述

基于提示的方法借助提示工程来掌控流程并引导 LLM。一个典型的实现案例是 FLARE 。其核心观念在于,LLM 仅在缺乏必要知识时才进行检索,从而避免在增强的 LM 中出现不必要或不恰当的检索。FLARE 会迭代生成下一个临时句子,并检查是否存在低概率标记。若有,系统便会检索相关文档并重新生成句子。

4.4.3.2 基于微调(Tuning-base)

基于调整的方法涉及微调 LLM 以生成特殊标记,进而触发检索或生成。这一概念可追溯至 Toolformer ,其中特定内容的生成有助于调用工具。在 RAG 系统中,此方法用于控制检索和生成步骤。

一个典型例子是 Self-RAG。给定输入提示和先前的生成结果,首先预测特殊标记“检索”是否有助于通过检索来增强继续生成。然后,若需要检索,模型会生成一个评判标记来评估检索到的段落的相关性,以及一个评判标记来评估响应中的信息是否得到检索到的段落的支持。最后,一个评判标记评估响应的整体效用,并选取最优结果作为最终输出。

4.5 微调模式(Tuning Pattern)

RAG 持续与更多与 LLM 相关的技术相融合。在模块化 RAG 中,许多组件由可训练的语言模型构成。通过微调,能够进一步优化组件的性能以及与整体流程的兼容性。

微调阶段的三种主要模式,即检索器微调、生成器微调以及双重微调。

4.5.1 检索器微调

在 RAG 流程中,微调检索器的常见方法如上图,其中包括:

  • • 1.对检索器进行直接的监督微调。构建专门用于检索的数据集,并对密集检索器进行微调。例如,使用开源检索数据集或依据特定领域数据构建一个。

  • • 2.添加可训练的适配器模块。有时,直接微调 API 基础嵌入模型(如 OpenAI Ada-002 和 Cohere)是行不通的。引入适配器模块能够增强数据的表示。此外,适配器模块有助于更好地与下游任务对齐,无论是针对特定任务(如 PRCA )还是通用目的(如 AAR )。

  • • 3.LM 监督检索(LSR)。依据 LLM 生成的结果对检索器进行微调。

  • • 4.LLM 奖励 RL。将 LLM 输出结果作为监督信号。采用强化学习使检索器与生成器对齐。整个检索过程以生成马尔可夫链的形式拆解。

4.5.2 生成器微调

在RAG流程中,对生成器进行微调的几种主要方法包括:

  • • 直接监督式微调(Direct supervised fine-tuning):利用外部数据集进行微调,能够为生成器注入新知识,并且还能定制化输入输出格式。通过设定问答模式,大型语言模型(LLM)能够理解特定的数据格式,并按照指令进行输出。

  • • 蒸馏(Distillation):在本地部署开源模型时,一种简单有效的优化手段是利用GPT-4批量创建微调数据,以此提升开源模型的性能。

  • • 基于LLM/人类反馈的强化学习(RL from LLM/human feedback):通过最终生成的答案反馈进行强化学习,不仅可以利用人类的评估,还能借助强大的LLMs作为评价的裁判。

4.5.3 双重微调

RAG系统中的一大特色是能够同时对检索器和生成器进行微调。系统微调的核心在于检索器与生成器之间的协同配合。例如,RA-DIT就是一个典范,它对LLM和检索器都进行了微调。LM-ft组件负责更新LLM,以提高在检索增强指令辅助下得出正确答案的可能性;而R-ft组件则负责更新检索器,以减少检索器得分分布与LLM偏好之间的KL散度差异。

  • • 论文原文: https://arxiv.org/abs/2407.21059
如何系统的去学习大模型LLM ?

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料 包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来

所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~

👉[CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享]👈

在这里插入图片描述

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

在这里插入图片描述

四、AI大模型商业化落地方案

img

阶段1:AI大模型时代的基础理解
  • 目标:了解AI大模型的基本概念、发展历程和核心原理。
  • 内容
    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
      - L1.4.1 知识大模型
      - L1.4.2 生产大模型
      - L1.4.3 模型工程方法论
      - L1.4.4 模型工程实践
    • L1.5 GPT应用案例
阶段2:AI大模型API应用开发工程
  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
  • 内容
    • L2.1 API接口
      - L2.1.1 OpenAI API接口
      - L2.1.2 Python接口接入
      - L2.1.3 BOT工具类框架
      - L2.1.4 代码示例
    • L2.2 Prompt框架
      - L2.2.1 什么是Prompt
      - L2.2.2 Prompt框架应用现状
      - L2.2.3 基于GPTAS的Prompt框架
      - L2.2.4 Prompt框架与Thought
      - L2.2.5 Prompt框架与提示词
    • L2.3 流水线工程
      - L2.3.1 流水线工程的概念
      - L2.3.2 流水线工程的优点
      - L2.3.3 流水线工程的应用
    • L2.4 总结与展望
阶段3:AI大模型应用架构实践
  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
  • 内容
    • L3.1 Agent模型框架
      - L3.1.1 Agent模型框架的设计理念
      - L3.1.2 Agent模型框架的核心组件
      - L3.1.3 Agent模型框架的实现细节
    • L3.2 MetaGPT
      - L3.2.1 MetaGPT的基本概念
      - L3.2.2 MetaGPT的工作原理
      - L3.2.3 MetaGPT的应用场景
    • L3.3 ChatGLM
      - L3.3.1 ChatGLM的特点
      - L3.3.2 ChatGLM的开发环境
      - L3.3.3 ChatGLM的使用示例
    • L3.4 LLAMA
      - L3.4.1 LLAMA的特点
      - L3.4.2 LLAMA的开发环境
      - L3.4.3 LLAMA的使用示例
    • L3.5 其他大模型介绍
阶段4:AI大模型私有化部署
  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
  • 内容
    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景
学习计划:
  • 阶段1:1-2个月,建立AI大模型的基础知识体系。
  • 阶段2:2-3个月,专注于API应用开发能力的提升。
  • 阶段3:3-4个月,深入实践AI大模型的应用架构和私有化部署。
  • 阶段4:4-5个月,专注于高级模型的应用和部署。
这份完整版的所有 ⚡️ 大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

全套 《LLM大模型入门+进阶学习资源包↓↓↓ 获取~

👉[CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享👈

在这里插入图片描述

  • 25
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值