提升RAG文档效率,10种有效策略

随着大型语言模型(LLMs)在各种场景中的广泛应用,其在提供信息的准确性和可靠性方面面临挑战。

检索增强型生成(RAG)技术应运而生,通过结合预训练模型的生成能力和基于检索的模型,为提高模型性能提供了一种有效的框架。

RAG技术特别适用于特定领域的应用快速部署,而无需更新模型参数。尽管RAG方法在理论上具有巨大潜力,但在实际实施中仍存在复杂的实施和响应时间过长的问题。

RAG工作流程

RAG工作流程通常包含的多个处理步骤,如查询分类、检索、重排、重组、摘要等,并且每个步骤的实施方式又有很多策略可以选择。如下图所示:

先展示一下RAG各个步骤采用的有效策略的得分对比

一、查询分类(Query Classification)

并非所有查询都需要检索增强型处理,因为大型语言模型(LLMs)本身具有固有的能力。虽然RAG可以提高信息的准确性并减少幻觉(hallucinations),频繁的检索可能会增加响应时间。因此,首先对查询进行分类,以确定检索的必要性。

需要检索的查询将通过RAG模块进行处理,其他查询则直接由LLMs处理。

因此,建议按任务类型进行分类,以确定查询是否需要检索。

上图展示的例子给出了,对于完全基于用户提供信息的任务,定义为“信息足够”了,所以不需要检索;否则,“信息不足”可能需要检索。

训练一个Bert分类模型,可以很好的对查询分类。

同样我们也可以看到,查询分类后,对效果提升还是非常明显的

二、文档分块(Chunking)

将文档分块成较小的段落对于提高检索精度和避免大型语言模型(LLMs)中的长文本问题至关重要。这一过程可以应用于不同粒度级别,如Token(词元)、句子和语义层面。

  • Token-level Chunking:词元级别的分块很直接,但可能会分割句子,影响检索质量

  • Semantic-level Chunking:语义级别的分块使用LLMs来确定断点,保留了上下文但耗时。

  • Sentence-level Chunking:句子级别的分块在保持文本语义的同时,平衡了简单性和效率。

因此,采用句子级别的分块是比较优的选择。那么,我们如何确定分块策略呢?

2.1 分块最佳的长度512(chunk size)

翻译: 分块大小显著影响性能。较大的分块提供更多上下文,增强理解力,但增加了处理时间。较小的分块可以提高检索召回率并减少时间,但可能缺乏足够的上下文。

因此,找到最佳的分块大小需要在忠实度(Faithfulness)和相关性(Relevancy)等指标之间取得平衡。

  • 忠实度衡量响应是否是幻觉,或者是否与检索到的文本匹配;

  • 相关性衡量检索到的文本和响应是否与查询匹配

这两个指标可以用LlamaIndex的评估模块计算。

在利用支持长输入的text-embedding-ada-0022 作为向量模型,zephyr-7b-alpha3作生成模型,gpt-3.5-turbo作为评估模型,分块重叠20个token得到以下对比数据。

我们可以发现,chunk size 被切分为256或者512时,两个指标是比较均衡的。

2.2 分块技术(Chunking Techniques)——滑动窗口更胜一筹

在得到最佳的分块大小之后,下面就该探讨分块策略了。

Small-to-big和滑动窗口(sliding window)两种分块技术有助于提升检索质量。使用小尺寸的分块(包含175个token)来匹配查询,同时返回包含这些小分块以及上下文信息的更大尺寸的分块(包含512个token, 且分块重叠20个token)。

对比发现,滑动窗口(sliding window)更胜一筹。

三、 向量模型的选择(Embedding Model Selection)

选择正确的向量模型,有助于提升query的语义匹配效果。

使用FlagEmbedding提供的评估方法进行比较,BAAI-bge的效果是最好的

四、增加元数据(Metadata Addition)

使用标题、关键词、问题假设等元数据增强chunk的信息来改善检索。

五、选择优秀的向量数据库(Vector Databases)

对比了5种开源数据库,其中只有Milvus全部支持以下4个指标:

  • multiple index types(多种索引):可以根据不同的数据特征和用例优化搜索

  • billion-scale vector support:支持十亿级数据集的向量检索

  • hybrid search(混合检索):将向量搜索与传统关键字搜索相结合,提高检索准确率

  • cloud-native:支持云原生服务,可确保云环境中的无缝集成、可扩展性和管理

六、优秀检索模块的配方(Retrieval Methods)

检索模块就是,根据给定的用户query(查询)和文档之间的相似度,从预先构建的语料库中选择与查询最相关的前k个文档。然后,LLM模型使用这些文档生成对query相对于的answer.

但是原始的查询通常由于表达不佳和缺乏语义信息而表现不佳,这会对检索过程产生负面影响。可以从转化查询的方法来解决这样的问题。

  • 查询重写(Query Rewriting):查询重写可以优化查询,以便更好地匹配相关文档。受到Rewrite-Retrieve-Read框架的启发,可以利用LLM重写查询以提高性能。

  • 查询分解(Query Decomposition):将复杂的问题,派生出几个简单的子问题,来帮助检索。

  • 伪文档生成(Pseudo-documents Generation):利用HyDE方法,基于用户查询生成一个假想文档,并使用假想答案的嵌入来检索相似的文档。

显然,HyDE+Hybrid Search 效果最好

在使用HyDE时,将伪文档与query拼接在一起检索,效果更好

在使用Hybrid search混合检索时,选择0.3或者0.5效果最好。

在这里 控制稀疏检索和密检索得分。

七、重新排序(Reranking Methods)

检索之后,会采用重新排序阶段来增强检索到的文档的相关性,确保最相关的信息出现在列表的顶部。这个阶段使用更精确但耗时的方法来有效地重新排序文档,增加查询和排名最高文档之间的相似性。

考虑两种排序方案:

  • DLM重新排序:这种方法利用语言模型(DLMs,例如BERT T5)进行重新排序。将文档与查询的相关性分类为“真”或“假”。在微调过程中,模型通过连接查询和文档输入进行训练,并按相关性进行标记。在推理时,文档根据“真”标记的概率进行排名。

  • TILDE重新排序:通过预测模型词汇表中的Token概率,独立地计算每个查询项的可能性。文档通过求和预先计算的查询Token的对数概率来评分,从而可以在推理时快速重新排序。TILDEv2 通过仅索引文档中存在的标记、使用 NCE 损失和扩展文档来改进这一点,从而提高效率并减少索引大小。

从上述表现来看,RankLLama效果表现最好,但是鉴于参数规模,利用Bert排序更具有优势。

八、打包文档(Document Repacking)

LLM会受到提供的文档顺序影响答案的生成。因此,在文档重排之后,需要跟上一个文档打包策略。打包方法可以概括为以下三种:

  • “正向”:根据重新排序阶段的相关性得分降序重新打包文档

  • “反向”:根据相关性得分从低到高排列文档

  • “两侧”:将相关信息放置在输入的头部或尾部以实现最佳性能

其中,“两侧”策略是当前最有效的方式。

九、摘要(Summarization)

检索到的结果可能包含冗余或不必要的信息,这可能会妨碍LLMs生成准确的结果。而且较长的prompt会减慢推理过程。因此,在检索增强(RAG)流程中,高效地摘要检索也是非常重要的。

摘要任务可以分为2种:

  • 提取式:将文本分割成句子,然后根据重要性对它们进行评分和排序,选取重要的句子。例如:BM25, Contriever,Recomp (extractive)

  • 抽象式:压缩多个文档中的信息,重新表述并生成连贯的摘要.例如:SelectiveContext,LongLLMlingua,Recomp (abstractive)

其中,表现最好的还是抽象式的Recomp (abstractive)方法

十、LLM微调(Generator Fine-tuning)

为了探讨相关或不相关上下文对LLM性能的影响,一共设定了以下五种策略:

  • Dg:上下文由与查询相关的文档组成,表示为。

  • Dr:上下文包含一个随机抽样的文档,表示为。

  • Dgr:上下文包括一个相关文档和一个随机选择的文档,表示为。

  • Dgg:上下文由两份与查询相关的文档组成,表示为

每种策略微调后的模型分别用相应Mg、Mr、Mgr、Mgg.

通过对比发现,是最好的。

在训练期间混合相关和随机上下文可以增强生成器对不相关信息的鲁棒性,同时确保有效利用相关上下文。

因此,我们确定在训练期间通过增加一些相关和随机选择的文档作为最佳做法。

总结

最后总体回顾一下,RAG各个流程步骤。

其中,上面红色方框的部分,为各自步骤的最佳策略,组合成一个完整的RAG流程,能达到最佳的效果。

  • Query Classification Module:查询分类将RAG得分从0.428提升到了0.443。延迟从16.58降低到了11.71

  • Retrieval Module:使用Hybrid with HyDE ,将RAG得分提高到了0.58,且保持住了11.7的推理延迟

  • Reranking Module:采用MonoT5保持住了RAG最高的得分0.58, 其它方法略有下降。

  • Repacking Module:Sides策略最有效保持住了RAG最高得分0.58,同时对比reverseforward可以发现,与查询越相关的上下文放在更靠前的位置,可以提高RAG的得分。

  • Summarization Module :尽管通过移除摘要模块可以实现较低延迟,但是由于Recomp能够解决LLM最大长度限制问题,所以Recomp还是首选。如果对时间延迟比较敏感,可以丢弃这个模块。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值