大模型 | 15 种高级 RAG 技术,值得收藏!

15 种高级 RAG 技术

1.增加信息密度(Increase Information Density Using LLMs)

利用 LLMs(大语言模型)处理、清理和标记数据,以提高信息密度,从而减少生成模型所需的上下文窗口大小,降低成本并提高响应准确性。

就像我们在准备考试时,把一本教科书浓缩成一个简单的笔记,只保留最重要的知识点。这样复习起来更高效。

2.应用分层索引检索(Apply Hierarchical Index Retrieval)

利用文档摘要创建多层索引,优先检索与查询最相关的摘要部分,再深入到详细文档,提高检索效率。

比如说先快速浏览一本书的目录或摘要,找到相关章节,然后再仔细阅读。这比从头到尾读整本书要快得多。

3.改善检索对称性(Improve Retrieval Symmetry with Hypothetical Question Index)

生成每个文档的假设问答对,并将这些问答对作为检索的嵌入对象,从而提高查询与文档之间的语义相似度,减少检索时的上下文丢失。

这个比较容易理解,假如你在问问题前已经知道了一些可能的答案,直接找到相关的答案就容易多了,而不是去海量信息中寻找,类似 few-shot 的方式

4.使用 LLMs 去重信息(Deduplicate Information in Your Data Index Using LLMs)

通过 LLMs 对嵌入空间中的数据块进行去重,将重复的信息浓缩成更少的、更有用的数据块,提高响应的质量。

5.测试和优化分块策略(Test and Optimize Your Chunking Strategy)

根据具体情况测试不同的分块策略,通过调整数据块大小和重叠率等参数,找到最佳的嵌入方式,以提高检索效果。

不断的调整,优化,迭代,总能找到适合的,有点像深度学习的调参

6.优化搜索查询(Optimize Search Queries Using LLMs)

特别是针对对话系统,使用 LLMs 根据系统的搜索需求优化用户的查询语句,确保搜索系统能够更准确、高效地找到相关信息。

一个很懂搜索引擎的人帮你改写搜索关键词,这样你更容易找到你想要的结果。

7.使用假设文档嵌入修正查询与文档的非对称性(Fix Query-Document Asymmetry with Hypothetical Document Embeddings (HyDE))

在检索前,生成一个与用户查询相关的假设文档,并使用这个文档的嵌入来替代用户的查询进行语义搜索,以提高检索的准确性。

8.实施查询路由或 RAG 决策模式(Implement Query Routing or a RAG Decider Pattern)

在多数据源系统中,使用 LLMs 决定将查询路由到哪个数据库,或决定是否需要进行 RAG 检索,从而降低成本,提高系统效率。

根据目的地选择走哪条路,而不是每次都先走到中央车站再决定。

9.重新排名以优化搜索结果(Prioritize Search Results with Reranking)

利用重排模型优化检索结果的优先级,将最相关的文档排在最前,以提高 RAG 系统的表现。

这就像是当你在网上购物时,把最合适的商品排在搜索结果的最前面,避免翻很多页。

QAanything 证明重排是个很有必要的步骤。

10.使用上下文压缩优化搜索结果(Optimize Search Results with Contextual Prompt Compression)

通过 LLMs 对检索到的信息进行处理、压缩或重新格式化,只保留生成最终响应所需的关键信息。

要点提炼出来,避免说一堆废话。

能够降低成本,减少无关紧要的 token。

11. 使用纠正 RAG 对检索文档打分和过滤(Score and Filter Retrieved Documents with Corrective RAG)

使用一个经过训练的模型对 RAG 结果进行打分,将不相关或不准确的文档过滤掉,只保留有用的部分。

这就像是请一个专家帮你筛选资料,只留下真正有用的信息。而不是用所有召回的文档 summary。

12. 通过链式思维提示屏蔽噪音(Tune Out Noise with Chain-of-Thought Prompting)

利用链式思维提示(Chain-of-Thought Prompting)提高 LLM 在有噪音或无关信息情况下给出正确答案的概率。

13. 让系统具备自我反思能力(Make Your System Self-Reflective with Self-RAG)

通过训练模型生成反思标记,判断是否需要检索或修正生成的内容,从而提高生成内容的质量和准确性。

和人的思考方式意义昂,会先想一想有没有漏掉什么信息,或者之前的判断是不是有问题,然后再做出最终决定。

大模型都是在模拟人脑的行为。

14. 通过微调忽略无关上下文(Ignore Irrelevant Context Through Fine-Tuning)

通过微调模型,增强其在 RAG 中的表现,使其能够忽略无关的上下文,提高对相关信息的响应能力。

微调是一个非常必要的方式,针对某些垂直领域,给模型灌输对应的风格约束,领域知识。

15. 使用自然语言推理让 LLMs 更好地应对无关上下文(Use Natural Language Inference to Make LLMs Robust Against Irrelevant Context)

使用 NLI 模型过滤掉无关上下文,仅在使用问题和 LLM 生成的答案被分类为蕴含时,才使用检索到的上下文。

一些简单的结论

  • 信息密度:使用 GPT-4 提取信息后,信息量显著减少,信息密度提高。例如,原始 HTML 有 55,000 个令牌,去除 CSS 和 HTML 标签后有 1,500 个令牌,使用 GPT-4 处理后进一步减少到 330 个令牌。

  • 检索效率:层次索引检索和假设问题索引显著提高了检索效率和结果的相关性。

  • 分块策略:1,000 字符分块与 200 字符重叠的策略表现最佳,得分为 4.34。

  • 假设文档嵌入:使用假设文档嵌入进行语义搜索,提高了检索结果的准确性。

  • 查询路由和 RAG 决策模式:识别出不需 RAG 查找的查询,避免了不必要的计算资源消耗。

  • 重新排序和压缩:重新排序搜索结果和使用 LLM 压缩生成提示,提高了生成响应的质量和效率。

  • 评分和过滤:使用 T5-Large 模型评分和过滤 RAG 结果,显著提高了响应的准确性。


最后分享

AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能将变得越来越重要。

学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。

这里给大家精心整理了一份全面的AI大模型学习资源,包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享!

1. 成长路线图&学习规划

要学习一门新的技术,作为新手一定要先学习成长路线图方向不对,努力白费

这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。可以说是最科学最系统的学习成长路线。
在这里插入图片描述

2. 大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)

在这里插入图片描述

3. 大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

在这里插入图片描述

4. 大模型项目实战

学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

在这里插入图片描述

5. 大模型面试题

面试,不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

在这里插入图片描述

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费


如有侵权,请联系删除。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值