《Advanced RAG》-04-深度研究RAG技术Re-ranking

摘要

文章首先介绍了重新排序在RAG中的重要性,它允许对检索到的文档进行重新排序和过滤,以确保最相关的文档能够被优先考虑,从而提高RAG的效率和准确性。

接着,文章详细描述了两种主流的重新排序方法:

  • 一种是使用重新排序模型,如bge-reranker-basebge-reranker-large等,这些模型通过考虑文档和查询之间的交互特征来评估它们的相关性,并且可以通过API访问,如Cohere提供的在线模型;
  • 另一种是利用大型语言模型(LLM),如GPT-3.5或GPT-4,通过彻底理解整个文档和查询来捕捉语义信息,进而进行重新排序。

文章还展示了如何使用LlamaIndex库来构建一个简单的检索器,并通过示例演示了基本检索和重新排序后的结果。此外,文章介绍了RankGPT的使用,这是一种零次列表式段落重新排序方法,它利用LLM的语义理解能力直接对所有候选段落进行相关性排序,并采用滑动窗口策略来处理大量文档。

最后,文章提到了评估RAG性能的方法,并指出在实际项目中需要根据具体情况进行权衡,以选择最合适的重新排序方法。

文章观点

  1. 重新排序在RAG中至关重要:它有助于提高检索到的文档的相关性,从而提升RAG的效率和答案的准确性。
  2. 重新排序模型和LLM是两种主流的重新排序方法:重新排序模型通过交互特征评估相关性,而LLM利用其对文本的深入理解进行排序。
  3. RankGPT作为一种LLM重新排序方法:它通过零次列表式排序和滑动窗口策略,有效地处理大量文档,并在多个基准测试中表现出色。
  4. 在实际应用中需要权衡使用哪种重新排序方法:不同的方法有不同的成本和性能表现,开发者需要根据项目需求和资源进行选择。
  5. 评估RAG性能的重要性:文章强调了使用适当的评估指标来衡量RAG系统的有效性,如Hit RateMean Reciprocal Rank (MRR)等。

Re-ranking 在检索增强生成(RAG)过程中起着至关重要的作用。在朴素 RAG 方法中,可能会检索到大量上下文,但并非所有上下文都与问题相关。重新排序可以对文档进行重新排序和过滤,将相关文档放在最前面,从而提高 RAG 的效率。

本文介绍了 RAG 的重新排序技术,并演示了如何使用两种方法整合重新排序功能。

Re-ranking 简介

图 1:RAG 中的重新排序,重新排序的任务是评估这些上下文的相关性

如图 1 所示,重新排序的任务就像一个智能过滤器。

当检索器从索引集合中检索出多个上下文时,这些上下文可能与用户的查询具有不同的相关性。

有些上下文可能非常相关(图 1 中红色方框中突出显示的内容),而其他上下文可能只是略有相关甚至不相关(图 1 中绿色和蓝色方框中突出显示的内容)。

重新排序的任务是评估这些上下文的相关性,并优先选择最有可能提供准确和相关答案的上下文。这样,LLM 就能在生成答案时优先考虑这些排名靠前的上下文,从而提高答案的准确性和质量。

简单地说,重新排序就像在开卷考试中帮助你从一堆学习材料中选择最相关的参考资料,这样你就能更高效、更准确地回答问题。

本文介绍的重新排序方法主要分为以下两种:

  • Re-ranking模型:这些模型考虑了文档和查询之间的交互特征,以更准确地评估它们的相关性。
  • LLM:LLM 的出现为重新排序提供了新的可能性。通过彻底了解整个文档和查询,可以更全面地捕捉语义信息。

使用重排模型作为重排器

重新排序模型与嵌入模型不同,它将查询和上下文作为输入,直接输出相似性得分而不是嵌入得分。值得注意的是,重新排序模型是利用交叉熵损失进行优化的,因此相关性得分不局限于特定范围,甚至可以是负分。

目前,可用的重新排名模型并不多。一种选择是 Cohere 提供的在线模型,可以通过 API 访问。此外,还有一些开源模型,如 bge-reranker-base 和 bge-reranker-large 等。

图2展示了使用命中率(Hit Rate)和平均倒数排名(Mean Reciprocal Rank, MRR)指标的评价结果:

图 2:使用命中率和平均互易排名 (MRR) 指标得出的评估结果。

从评估结果可以看出

  • 无论使用哪种嵌入模型,重新排序都能显示出更高的命中率和 MRR,这表明重新排序具有重大影响。
  • 最好的重新排名模型是 Cohere,但它是一项付费服务。开源的 bge-reranker-large 模型具有与 Cohere 相似的功能。
  • 嵌入模型和重新排序模型的组合也会产生影响,因此开发人员可能需要在实际过程中尝试不同的组合。

本文将使用 bge-reranker-base 模型。

环境配置

导入相关库,设置环境变量和全局变量

import os
os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_KEY"

from llama_index import VectorStoreIndex, SimpleDirectoryReader
from llama_index.postprocessor.flag_embedding_reranker import FlagEmbeddingReranker
from llama_index.schema import QueryBundle

dir_path = "YOUR_DIR_PATH"

目录中只有一个 PDF 文件,即 “TinyLlama: An Open Source Small Language Model”。

(py) Florian:~ Florian$ ls /Users/Florian/Downloads/pdf_test/
tinyllama.pdf

使用LlamaIndex构建一个简单的检索器

documents = SimpleDirectoryReader(dir_path).load_data()
index = VectorStoreIndex.from_documents(documents)
retriever = index.as_retriever(similarity_top_k = 3)

检索

query = "Can you provide a concise description of the TinyLlama model?"
nodes = retriever.retrieve(query)
for node in nodes:
    print('----------------------------------------------------')
    display_source_node(node, source_length = 500)

display_source_node 函数改编自 llama_index 源代码。原始函数是为 Jupyter notebook 设计的,因此修改如下:

from llama_index.schema import ImageNode, MetadataMode, NodeWithScore
from llama_index.utils import truncate_text

def display_source_node(
    source_node: NodeWithScore,
    source_length: int = 100,
    show_source_metadata: bool = False,
    metadata_mode: MetadataMode = MetadataMode.NONE,
) -> None:
    """Display source node"""
    source_text_fmt = truncate_text(
        source_node.node.get_content(metadata_mode=metadata_mode).strip(), source_length
    )
    text_md = (
        f"Node ID: {
     source_node.node.node_id} \n"f"Score: {
     source_node.score} \n"f"Text: {
     source_text_fmt} \n"
    )
    if show_source_metadata:
        text_md += f"Metadata: {
     source_node.node.metadata} \n"if isinstance(source_node.node, ImageNode):
        text_md += "Image:"print(text_md)
    # display(Markdown(text_md))# if isinstance(source_node.node, ImageNode) and source_node.node.image is not None:#     display_image(source_node.node.image)

基本检索结果如下,代表重新排序前的前 3 个节点:

----------------------------------------------------
Node ID: 438b9d91-cd5a-44a8-939e-3ecd77648662 
Score: 0.8706055408845863 
Text: 4 ConclusionIn this paper, we introduce TinyLlama, an open-source, small-scale language model
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

静愚 AGI

你的善意终将流回自己,加油!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值