大模型 | Anthropic提出Contextual Retrieval让RAG再进化,大幅降低检索失败率

在知识库问答等场景中,RAG已经成为当下最流行的LLM应用范式,为LLM提供又全又准的上下文信息是众多RAG技术努力的方向。在传统的 RAG 解决方案中,编码信息时往往会丢失上下文,这导致系统无法从知识库中检索到相关信息,如何能够更好地保留上下文信息成为了问题关键。

Anthropic 研究团队提出了“Contextual Retrieval(上下文检索)”的创新方法在此领域取得了显著进展。近日,他们发表文章[1]可披露了这一技术的细节,他们通过上下文嵌入(Contextual Embeddings)和上下文 BM25(Contextual BM25)(文本检索)可以将检索失败率减少 49%,联合重排序(reranking),失败率可减少 67%。

我们一起来了解这一方法的核心内容。

一、上下文检索的创新点

传统的 RAG 系统在分割文档时会破坏上下文,导致检索到的信息分块缺乏足够的背景信息。

例如,假设你有一个包含财务信息的知识库,并收到以下问题:“ACME 公司在 2023 年第二季度的收入增长是多少?”一个相关的分块可能包含这样的文本:“公司的收入比上一季度增长了 3%。”然而,这个分块本身并没有指定是哪家公司或相关的时间段,导致难以检索到正确的信息或有效地使用这些信息。

研究团队尝试过一些业内流行的改进措施,诸如:分块中添加文档摘要(adding generic document summaries to chunks)[2],假设文档嵌入(hypothetical document embedding)[3],以及索引摘要(summary-based indexing)[4],但都效果不佳。

他们通过大量实验摸索,采用上下文检索时通过在嵌入前为每个分块添加特定的解释性上下文(Contextual Embeddings)和创建 BM25 索引(Contextual BM25)来解决这个问题。例如:

原始分块 = "公司的收入比上一季度增长了3%。"  
上下文化分块 = "这个分块来自ACME公司在2023年第二季度的SEC文件;上一季度的收入为3.14亿美元。公司的收入比上一季度增长了3%。"

在这里插入图片描述

这种方法显著提高了检索的准确性,特别是在处理包含特定标识符或技术术语的查询时。

二、如何实现上下文检索

手动为知识库中的成千上万个分块添加上下文显然是不现实的。为此,研究团队使用了 Claude 模型,通过一个特定的提示生成每个分块的简洁上下文,生成的上下文通常为 50-100 个 token,然后在嵌入和创建 BM25 索引之前将其添加到分块中。

这是官方 prompt 示例:

<document>  
{{WHOLE_DOCUMENT}}  
</document>  
Here is the chunk we want to situate within the whole document  
<chunk>  
{{CHUNK_CONTENT}}  
</chunk>  
Please give a short succinct context to situate this chunk within the overall document for the purposes of improving search retrieval of the chunk. Answer only with the succinct context and nothing else.  

在这里插入图片描述

以下是详细的实现步骤:

1. 生成上下文

首先,研究团队使用 Claude 为每个分块生成上下文。通过设计一个特定的提示,Claude 可以为每个分块生成简洁而有意义的上下文。

例如,假设我们有一个分块:

“公司的收入比上一季度增长了3%。”  

我们可以设计一个提示,让 Claude 生成上下文:

“请为以下分块生成一个简洁的上下文:‘公司的收入比上一季度增长了3%。’”  

Claude 可能会生成以下上下文:

“这个分块来自ACME公司在2023年第二季度的SEC文件;上一季度的收入为3.14亿美元。公司的收入比上一季度增长了3%。”  

2. 添加上下文到分块

生成上下文后,将其添加到原始分块中。这样,每个分块都包含了足够的背景信息,便于后续的检索和使用。

上下文化分块 = "这个分块来自ACME公司在2023年第二季度的SEC文件;上一季度的收入为3.14亿美元。公司的收入比上一季度增长了3%。"  

3. 创建嵌入

接下来,使用嵌入模型将上下文化分块转换为向量嵌入。向量嵌入是高维空间中的点,表示文本的语义含义。常用的嵌入模型包括 Voyage 和 Gemini,它们在实验中表现出色。

嵌入向量 = 嵌入模型(上下文化分块)  

4. 创建 BM25 索引

除了生成嵌入,还需要为上下文化分块创建 BM25 索引。BM25 是一种基于词频和逆文档频率的检索算法,能够有效地衡量文本分块与查询之间的相关性。

BM25索引 = BM25模型(上下文化分块)  

5. 存储和检索

将生成的嵌入向量和 BM25 索引存储在向量数据库和 BM25 索引库中。这样,当用户输入查询时,系统可以同时使用嵌入向量和 BM25 索引进行检索,从而找到最相关的上下文化分块。

向量数据库.存储(嵌入向量)  
BM25索引库.存储(BM25索引)  

6. 重排序

在检索到相关分块后,使用重排序技术对分块进行过滤和排序,确保只有最相关的分块被传递给生成模型。重排序可以显著提高检索的准确性和相关性。

相关分块 = 向量数据库.检索(查询)  
重排序分块 = 重排序模型(相关分块)  

在实现上下文检索时,研究团队特别指出需要考虑以下几点:

  1. 分块策略:考虑如何将文档分割成分块。分块大小、边界和重叠的选择会影响检索性能。

  2. 嵌入模型:选择合适的嵌入模型,对提高上下文检索性能帮助更大, Gemini[5] 和Voyage[6]在测试中表现更好。

  3. 自定义上下文提示:虽然通用提示效果良好,但仍然可能需要针对一些场景定制提示来获得更好的结果。

  4. 分块的数量:将更多的块添加到上下文窗口中,增加了包含相关信息的可能性。然而,过多的信息可能会使模型分心,因此存在一个限制。研究团队尝试了提供 5、10 和 20 块,发现使用 20 块在这三个选项中表现最佳,但仍然在一些具体场景中进行实验选择。

  5. 持续评估:通过将上下文化的语块传递给响应生成器,并区分上下文和语块,可以改进响应生成。

三、效果如何

研究团队的实验结果显示:

  • 上下文嵌入将前 20 个分块的检索失败率减少了 35%(从 5.7%降至 3.7%)。

  • 结合上下文嵌入和上下文 BM25 将前 20 个分块的检索失败率减少了 49%(从 5.7%降至 2.9%)。

在这里插入图片描述

同时,利用提示缓存技术降低了使用成本。通过提示缓存,您不需要为每一块都传递参考文档。您只需将文档加载到缓存中一次,然后引用之前缓存的内容即可。假设每块有 800 个 token,8k 个 token 的文档,50 个 token 的上下文指令,以及每块 100 个 token 的上下文,生成上下文化块的一次性成本为每百万文档 token1.02 美元。

四、联合重排序进一步提升性能

在这里插入图片描述

在传统 RAG 中,AI 系统会从知识库中检索到大量潜在相关的信息分块。对于大型知识库,这一初始检索往往会返回大量分块,有时多达数百个,且相关性和重要性各不相同。重排序是一种常用的过滤技术,确保只有最相关的分块被传递给模型。实验结果显示,重排序后的上下文嵌入和上下文 BM25 将前 20 个分块的检索失败率减少了 67%(从 5.7%降至 1.9%)。

在这里插入图片描述

同时注意,由于重排序在运行时增加了额外的步骤,即使所有分块都是并行评分,也必然会增加一小部分延迟,在重排序大量分块时表现更加明显。重排序在使用更多分块以获得更好性能与更少分块以降低延迟和成本之间存在取舍,这需要在具体的场景下尝试不同的设置,以找到合适的平衡点。

五、总结

研究团队通过大量的实验,为大家指出了一个新的提升 RAG 性能的方法,为开发者指出了实践新方向。

同时,研究团队基于大量实验的结果,给出了一些关键的经验总结:

  1. 嵌入+BM25 比单独使用嵌入效果更好(向量检索与文本检索相结合);
  2. Voyage 和 Gemini 是测试中效果最好的嵌入模型;
  3. 将前 20 个分块传递给模型比仅传递前 10 个或前 5 个分块更有效;
  4. 为分块添加上下文显著提高了检索准确性;
  5. 重排序比不重排序效果更好;
  6. 所有这些改进措施可以叠加:结合上下文嵌入(Voyage 或 Gemini)、上下文 BM25 和重排序步骤,并将前 20 个分块添加到提示中,可以最大化性能提升。

六、如何学习大模型?

学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。

这里给大家精心整理了一份全面的AI大模型学习资源,包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享!

1. 成长路线图&学习规划

要学习一门新的技术,作为新手一定要先学习成长路线图方向不对,努力白费

这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。可以说是最科学最系统的学习成长路线。
在这里插入图片描述

2. 大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础(书籍含电子版PDF)

在这里插入图片描述

3. 大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

在这里插入图片描述

4. 大模型项目实战

学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

在这里插入图片描述

5. 大模型面试题

面试不仅是技术的较量,更需要充分的准备。

在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

在这里插入图片描述

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费


如有侵权,请联系删除

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值