大模型RAG实战|混合检索:BM25检索+向量检索的LlamaIndex实现

ThinkRAG大模型RAG实战系列文章,带你深入探索使用LlamaIndex框架,构建本地大模型知识库问答系统。本系列涵盖知识库管理、检索优化、模型本地部署等主题,通过代码与实例,讲解如何打造生产级系统,实现本地知识库的快速检索与智能问答。

本文我将介绍一种效果更好的混合检索方法,在实际问答场景中,优于向量数据库自带的混合检索功能。

1

什么是混合检索

目前,大模型RAG系统中普遍采用混合检索来提升检索准确性。

针对要回答的问题,同时通过向量语义相似度检索以及基于关键词的全文检索,将检索到的文本块,进行融合处理,包括去重与排序,然后再把得分最高的文本块,给到大模型生成回答。

这,就是混合检索的原理。

通过引入向量数据库,比如Chroma, LanceDB或者上篇文章中提到的Elasticsearch,我们可以非常容易地实现向量检索。

所以,当我们要实现混合检索,一个问题就在于如何实现全文检索。

好在LlamaIndex提供了实现BM25检索的方法。

2

构建BM25检索器

BM25是一种文本相关度检索方法,主要是判断⼀个⽂档和查询语句匹配的程度的算法,比如在搜索引擎中用于排序搜索结果。

这种文本相关度的判断,主要基于词语权重和文档权重的融合。

  • 词频 TF(Term Frequency),即一个词在一个文档中出现的频率越高,那么文档的相关性也越高。

  • 逆向文档频率 IDF(Inverse Document Frequency),即每个词在索引中出现的频率越高,相关性越低。IDF主要是为了降低像“的” 这样高频词语的相关性,提升包含低频专业术语的文档的权重。

这两者结合起来就形成了TF-IDF算法

BM25算法则基于TF-IDF作了优化,主要是降低长文档的权重。LlamaIndex实现了BM25算法的检索器:BM25Retriever【参考资料1】。

不过,BM25Retriever默认使用的tokenizer不支持中文,所以我们使用Jieba作为tokenizer。这样,我们定制一个适合中文的BM25检索器SimpleBM25Retriever

代码如下:

import jieba``from typing import List``def chinese_tokenizer(text: str) -> List[str]:`    `return list(jieba.cut(text))``   ``class SimpleBM25Retriever(BM25Retriever):`    `@classmethod`    `def from_defaults(cls, index, similarity_top_k, **kwargs) -> "BM25Retriever":`        `docstore = index.docstore`        `return BM25Retriever.from_defaults(`            `docstore=docstore, similarity_top_k=similarity_top_k, verbose=True,`            `tokenizer=chinese_tokenizer, **kwargs`        `)

考虑到使用向量检索时,我们通常基于index构建向量检索器。同样,以上定制的BM25检索器,我们也将index作为参数载入,然后在构建BM25Retriever时,将index.docstore传递过去。

BM25检索的内容基于LlamaIndex框架中的文档存储(docstore)。

我在之前的文章中提到,可以采用MongoDB作为文档存储(doc store)和索引存储(index store)。

一个更好的选择就是使用Redis【参考资料2】,它还可以作为文本提取管道的缓存(ingestion cache)和问答记录存储(chat store)。

这样,我们在一个RAG系统中,就不需要引入太多不同种类的数据库。

3

实现混合检索

接下来,我们需要把向量检索和BM25检索到的内容进行融合处理。LlamaIndex提供了一个很好的方法:QueryFusionRetriever 【参考资料3】。

基于这个方法,我定制了一个新的类SimpleFusionRetriever

首先,构建向量检索器(vector_retriever)和BM25检索器(bm25_retriever),然后构造QueryFusionRetriever,并设置两者的权重分别为0.6和0.4。

这里,向量检索器的权重(0.6)更高,表明向量检索器的得分在最终排名中被认为更重要。

代码如下:

class SimpleFusionRetriever(QueryFusionRetriever):`    `def __init__(self, vector_index, top_k=2, mode=FUSION_MODES.DIST_BASED_SCORE):`        `self.top_k = top_k`        `self.mode = mode``   `        `# Build vector retriever from vector index`        `self.vector_retriever = VectorIndexRetriever(`            `index=vector_index, similarity_top_k=top_k, verbose=True,`        `)``   `        `# Build BM25 retriever from document storage`        `self.bm25_retriever = SimpleBM25Retriever.from_defaults(`            `index=vector_index, similarity_top_k=top_k,`        `)``   `        `super().__init__(`            `[self.vector_retriever, self.bm25_retriever],`            `retriever_weights=[0.6, 0.4],`            `similarity_top_k=top_k,`            `num_queries=1,  # set this to 1 to disable query generation`            `mode=mode,`            `use_async=True,`            `verbose=True,`        `)

其中,融合处理的模式设置为dist_based_score【参考资料3】。LlamaIndex目前支持以下四种模式。

class FUSION_MODES(str, Enum):`    `RECIPROCAL_RANK = "reciprocal_rerank"  # apply reciprocal rank fusion`    `RELATIVE_SCORE = "relative_score"  # apply relative score fusion`    `DIST_BASED_SCORE = "dist_based_score"  # apply distance-based score fusion`    `SIMPLE = "simple"  # simple re-ordering of results based on original scores

先介绍relative_score,即相对得分融合算法(Relative Score Fusion),采用以下方法对检索内容进行处理:

  • 最小-最大归一化:此步骤将每个检索器的得分归一化到一个共同的尺度上,通常在0到1之间。这是通过减去最小得分并除以得分范围(最大值 - 最小值)来完成的。

  • 加权求和:归一化后,得分使用加权求和的方式组合成一个最终得分。权重反映了每个检索器得分在最终排名中的相对重要性。

我们采用的dist_based_score,是基于分布的得分融合算法(Distribution-Based Score Fusion)。作为relative_score的变体,它根据每个结果集的得分的均值和标准差来不同地进行归一化处理。

这种方法考虑了不同检索器得分的分布特性,从而在融合时更加公平地对待每个检索器的得分。

QueryFusionRetriever是一个很有趣的方法。

它可以将原始的查询(query),通过LLM改写生成最多4个新的查询,然后对每一个检索器,都逐一检索。也就是说,如果有2个检索器,那么一共进行 4 x 2 = 8 次检索。

最终,该方法会对8次检索的内容,采用上述算法进行融合处理,去除重复的内容,并重新排序。

由于我们此次仅实验混合检索,而且不希望过多的LLM调用,导致延迟响应,因此将参数num_queries设置为1,不进行query的生成。

4

下一步做什么

本文介绍了使用LlamaIndex实现稠密向量检索 + BM25全文检索的混合检索方法,属于2路召回。

值得注意的是,最近 IBM 的研究文章对比了各种检索方式的组合,并提出采用Blended RAG【参考资料4】,即使用 BM25全文检索 + 稠密向量检索 + 稀疏向量检索的3路召回的混合检索方法,可以达到更好地效果。

后续,我将探索使用LlamaIndex,实现3路召回混合检索,并向大家报告结果。

本文中的代码,都可以在ThinkRAG【参考资料5】这一开源项目中找到。

https://github.com/wzdavid/ThinkRAG

ThinkRAG是我基于LlamaIndex框架,前端使用Streamlit开发的大模型知识库RAG系统,可本地化部署和离线运行。

欢迎关注与交流!

参考资料:

1.https://docs.llamaindex.ai/en/stable/api_reference/retrievers/bm25/

2.https://docs.llamaindex.ai/en/stable/examples/docstore/RedisDocstoreIndexStoreDemo/

3.https://docs.llamaindex.ai/en/stable/examples/retrievers/relative_score_dist_fusion/

4.Blended RAG: Improving RAG (Retriever-Augmented Generation) Accuracy with Semantic Search and Hybrid Query-Based Retrievers,
https://arxiv.org/abs/2404.07220 , 2024

5.https://github.com/wzdavid/ThinkRAG

如何系统的去学习大模型LLM ?

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料 包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来

所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~

👉[CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享]👈

在这里插入图片描述

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

在这里插入图片描述

四、AI大模型商业化落地方案

img

阶段1:AI大模型时代的基础理解
  • 目标:了解AI大模型的基本概念、发展历程和核心原理。
  • 内容
    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
      - L1.4.1 知识大模型
      - L1.4.2 生产大模型
      - L1.4.3 模型工程方法论
      - L1.4.4 模型工程实践
    • L1.5 GPT应用案例
阶段2:AI大模型API应用开发工程
  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
  • 内容
    • L2.1 API接口
      - L2.1.1 OpenAI API接口
      - L2.1.2 Python接口接入
      - L2.1.3 BOT工具类框架
      - L2.1.4 代码示例
    • L2.2 Prompt框架
      - L2.2.1 什么是Prompt
      - L2.2.2 Prompt框架应用现状
      - L2.2.3 基于GPTAS的Prompt框架
      - L2.2.4 Prompt框架与Thought
      - L2.2.5 Prompt框架与提示词
    • L2.3 流水线工程
      - L2.3.1 流水线工程的概念
      - L2.3.2 流水线工程的优点
      - L2.3.3 流水线工程的应用
    • L2.4 总结与展望
阶段3:AI大模型应用架构实践
  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
  • 内容
    • L3.1 Agent模型框架
      - L3.1.1 Agent模型框架的设计理念
      - L3.1.2 Agent模型框架的核心组件
      - L3.1.3 Agent模型框架的实现细节
    • L3.2 MetaGPT
      - L3.2.1 MetaGPT的基本概念
      - L3.2.2 MetaGPT的工作原理
      - L3.2.3 MetaGPT的应用场景
    • L3.3 ChatGLM
      - L3.3.1 ChatGLM的特点
      - L3.3.2 ChatGLM的开发环境
      - L3.3.3 ChatGLM的使用示例
    • L3.4 LLAMA
      - L3.4.1 LLAMA的特点
      - L3.4.2 LLAMA的开发环境
      - L3.4.3 LLAMA的使用示例
    • L3.5 其他大模型介绍
阶段4:AI大模型私有化部署
  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
  • 内容
    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景
学习计划:
  • 阶段1:1-2个月,建立AI大模型的基础知识体系。
  • 阶段2:2-3个月,专注于API应用开发能力的提升。
  • 阶段3:3-4个月,深入实践AI大模型的应用架构和私有化部署。
  • 阶段4:4-5个月,专注于高级模型的应用和部署。
这份完整版的所有 ⚡️ 大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

全套 《LLM大模型入门+进阶学习资源包↓↓↓ 获取~

👉[CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享👈

在这里插入图片描述

  • 22
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值