RAG系统召回率低? BGE-M3 多语言多功能重塑文本检索

🚁 前言

在大家做基于RAG问答系统的时候,嵌入模型的性能直接决定了系统的效率和准确性,当你的检索管道检索的命中率低导致问答系统效果不好怎么办?今天我们要深入探讨 BGE-M3,它一款由北京智源人工智能研究院(BAAI)开发的文本嵌入模型。它支持密集、稀疏和多向量检索,覆盖 100+ 种语言,最长处理 8192 个 token。如果你的检索管道只有稠密向量检索或者稀疏向量检索的同学,我强烈建议看看这篇文章。

一、BGE-M3 模型简介

BGE-M3(Beijing General Embedding M3,由北京智源人工智能研究院 BAAI 开发,2024 年发布)是一个多功能的嵌入模型,以其 多语言性(Multi-Linguality)、多功能性(Multi-Functionality)、多粒度性(Multi-Granularity) 而著称。它基于 XLM-RoBERTa 架构进行了优化,训练数据规模高达 2.5TB,覆盖 100 多种语言,支持从短句到长达 8192 个 token 的文档处理。相比 RoBERTa 和 XLM-RoBERTa,BGE-M3 的独特之处在于它不仅保留了 MLM(掩码语言模型)任务,还引入了多种检索功能:

  • 多功能性:BGE-M3 能同时支持三种检索方式:

    1. 稠密检索(Dense Retrieval):生成固定维度的密集向量,用于语义相似性匹配。
    2. 稀疏检索(Sparse Retrieval):生成高维稀疏向量,类似于 BM25,强调词的精确匹配。
    3. 多向量检索(Multi-Vector Retrieval):用多个向量表示文本(如 ColBERT),捕捉更细粒度的上下文信息。 这种多功能设计让它可以灵活应对不同场景,比如结合稠密和稀疏检索的混合检索(Hybrid Retrieval),提升准确性和泛化能力。
  • 多语言性:它在 100 多种语言上表现优异,支持多语言和跨语言检索任务,无需额外语言标识即可自动识别并处理多种语言文本。

  • 多粒度性:从短句子到超长文档(最大 8192 token),BGE-M3 都能有效嵌入,特别适合需要处理长文本的场景。

BGE-M3 在训练中采用了创新的 自知识蒸馏(Self-Knowledge Distillation) 方法,以提升嵌入质量。简单来说,自知识蒸馏是一种特殊的知识蒸馏技术,通常知识蒸馏是指用一个强大的“教师模型”指导一个较小的“学生模型”学习,而自知识蒸馏则是让模型自己充当“教师”和“学生”。具体到 BGE-M3,它将自身在不同检索任务(稠密、稀疏、多向量检索)中的输出得分进行融合,生成一个综合的“教师信号”,然后用这个信号来指导模型自身的训练。这种方法不需要额外的外部模型,而是利用模型自身的多功能性挖掘内在知识,从而提高嵌入的语义表达能力和一致性。

  • 工作原理:在训练中,BGE-M3 会同时优化多种检索目标(比如稠密向量的语义匹配和稀疏向量的词级匹配)。通过融合这些目标的预测结果,模型得到一个更全面的“伪标签”或“软目标”,然后用这个目标反过来约束自己的学习过程。这种自监督的方式让模型能够更好地平衡不同任务的需求。
  • 优势:相比传统训练,自知识蒸馏使 BGE-M3 在多语言和多任务场景下表现更稳定,尤其是在处理复杂语义和长文本时。它避免了外部教师模型可能带来的偏差,同时充分利用了大规模数据的潜力。

目前,开源且支持中文的嵌入模型中,BGE 系列和 Jina 系列是最主流的选择。那为什么我们这篇文章主讲 BGE 呢?一方面,它的多功能性让人印象深刻,尤其是多向量检索(ColBERT)这种方式,我个人觉得非常出色。像 RAGFlow 这样的工具也在主推这类模型,可见它的潜力。

具体有哪些特点?别急,后面的介绍会让你一探究竟。我们先从 BGE 家族的成员说起,包括初代、二代(v1.5)和三代(BGE-M3)。另外,他们还有一些基于大语言模型的变体,比如基于 Gemma2-9B 和 Mistral-7B 构建的嵌入模型。不过这些模型参数量太大(动辄几十亿),这次我们只简单提一下,不会展开太多。你准备好了解 BGE 的进化历程了吗?

二、BGE 系列模型解析

从这部分的介绍,大家可以发现BGE系列第一、二、三代模型基本都是从bert系列发展出来的。

2.1 BGE 家族概览

2.1.1 初代 BGE

初代针对英语和中文提供 6 个模型,基于 BERT:

模型语言参数数量模型大小描述基础模型
BAAI/bge-large-en英语500M1.34 GB高性能嵌入模型BERT
BAAI/bge-small-zh中文24M95.8 MB小型但竞争力强BERT
2.1.2 BGE v1.5

BGE v1.5 通过优化相似度分布和提升无指令检索能力,改进了前代模型的不足。

模型语言参数数量模型大小描述基础模型
BAAI/bge-large-en-v1.5英语335M1.34 GB相似度分布更合理BERT
BGE v1.5 的优化背景

BGE v1(2023 年 8 月发布)在 MTEB 和 C-MTEB 等基准测试中表现优异,但存在两方面问题:

  1. 相似度分布不合理:采用对比学习(Contrastive Learning)时,温度参数(temperature)设为 0.01,导致相似度分数集中于 [0.6, 1] 区间。即使语义不相关的句子,分数也可能超过 0.5,难以直观区分相关性。
  2. 指令依赖性强:在短查询匹配长文档的检索任务中,BGE v1 需为查询添加特定指令(如“Represent this sentence for searching relevant passages:”),否则性能下降明显。

为解决上述问题,BGE v1.5(2023 年 9 月发布)进行了针对性优化。

优化相似度分布的实现

BGE v1.5 通过改进训练策略和损失函数,使相似度分布更合理:

  • 改进对比学习:沿用对比学习框架,但调整了温度参数或优化损失函数(如 InfoNCE 变体),使分数分布更均匀。BGE v1 的分数集中源于温度过低,v1.5 通过平衡正样本(语义相似的句子对)和负样本(不相关的句子对),让分数更准确反映语义差异。
  • 硬负样本挖掘(Hard Negative Mining):引入高质量硬负样本(如表面相似但语义不同的句子,例如查询“什么是 AI”对应的硬负样本“什么是空调”),增强模型对细微语义差异的区分能力,避免无关句子的分数过高。
  • 效果:优化后,相似度分布更自然,用户可根据需求设置阈值(如 0.8 或 0.9)筛选相似句子,不再受限于 v1 的 [0.6, 1] 集中区间。
提升无指令检索能力的实现

BGE v1.5 增强上下文理解,减少对指令的依赖:

  • 预训练优化:基于 RetroMAE 等方法,在更大规模、多样化的语料上预训练。通过双向掩码预测任务,模型无需指令也能捕捉查询的检索意图。
  • 指令无关微调:微调时减少指令比例,混合有指令和无指令数据进行对比学习,使模型自适应两种场景,提升无指令下的性能。
  • 短查询处理改进:针对短查询匹配长文档场景,优化嵌入生成(如调整注意力机制或池化策略,例如 CLS 池化或平均池化),确保短文本语义表示更鲁棒,无需指令也能提取充分信息。
  • 效果:无指令场景下的检索性能接近有指令场景,下降幅度极小,用户可直接使用原始查询生成嵌入,简化操作流程。
与 BGE-M3 的关联

BGE-M3(2024 年发布)在 v1.5 基础上进一步发展,消除指令依赖,并通过支持稠密、稀疏和多向量检索提升性能。BGE v1.5 的改进为其后续版本奠定了关键基础。

2.1.3 BGE-M3

BGE-M3 引入多功能性,基于 XLM-RoBERTa,参数 568M,大小 2.27 GB,见论文。

模型语言参数数量模型大小描述基础模型
BAAI/bge-m3多语言568M2.27 GB多功能性(密集检索、稀疏检索、多向量(colbert))、多语言性和多粒度(8192标记)XLM-RoBERTa
2.1.4 BGE Multilingual Gemma2

BGE Multilingual Gemma2 是一个基于LLM的多语言嵌入模型。

模型语言参数数量模型大小描述基础模型
BAAI/bge-multilingual-gemma2多语言9.24B37 GB基于LLM的多语言嵌入模型,在多语言基准测试中取得了SOTA结果Gemma2-9B
2.1.4 BGE ICL

BGE ICL代表上下文学习(in-context learning)。通过在查询中提供少样本示例,它可以显著增强模型处理新任务的能力。

模型语言参数数量模型大小描述基础模型
BAAI/bge-en-icl英语7.11B28.5 GB基于LLM的英语嵌入模型,具有出色的上下文学习能力Mistral-7B

2.2 RoBERTa

我们在上一篇文章中介绍过 BERT 模型。由于 BGE-M3 是基于 XLM-RoBERTa 模型开发的,而它基于RoBERTa,因此本文也会简要介绍 RoBERTa 相较于 BERT 的主要区别。

RoBERTa(Robustly optimized BERT approach,2019 年发布)是在 BERT 基础上优化而来,去除了 NSP(Next Sentence Prediction,下文预测任务),仅保留 MLM(Masked Language Model,掩码语言模型),并引入动态掩码机制。它使用 160GB 大规模数据进行训练,参数规模从 1.25 亿增至 3.55 亿,在 GLUE 等基准测试中性能超越 BERT。

  • 下文预测任务(NSP,Next Sentence Prediction):这是 BERT 预训练中的一项任务,旨在判断两段文本是否在原文中是连续的。具体来说,BERT 会随机抽取两句话,50% 的情况下这两句话是连续的,50% 的情况下则不是,模型需要预测它们之间的关系。这一任务的目的是增强模型对句子间逻辑关系的理解,但 RoBERTa 研究发现其效果有限,因此将其移除。
  • 动态掩码机制(Dynamic Masking):在 BERT 中,掩码(即将部分词替换为 [MASK] 以供模型预测)是在数据预处理阶段静态生成的,每次训练时掩码位置固定。而 RoBERTa 改为在每次训练时动态生成掩码,即每次输入模型时随机选择不同的词进行掩盖。这样可以增加训练的多样性,让模型更鲁棒地学习词语之间的上下文关系。

2.3 XLM-RoBERTa

XLM-RoBERTa(Cross-lingual Language Model - RoBERTa,2019 年发布)是在 RoBERTa 基础上进一步优化而来的多语言模型。它继承了 RoBERTa 的改进特性(如去除 NSP,仅保留 MLM,采用动态掩码机制),并通过使用 2.5TB 的多语言数据(涵盖 100 种语言,来自过滤后的 CommonCrawl 数据)进行训练,使其在跨语言任务中表现出色。相比 RoBERTa,XLM-RoBERTa 的参数规模也有所增加,提供 base(2.7 亿参数)和 large(5.5 亿参数)两个版本。它在跨语言基准测试(如 XNLI)中显著超越了多语言 BERT(mBERT),展现了强大的语言迁移能力。

三、BGE-M3 实验与应用

FlagEmbedding 是由北京智源人工智能研究院(BAAI)开发的一个开源项目,专注于语义嵌入模型的研究与应用。你可能已经听说过,它的目标是为检索增强生成(RAG)、语义搜索等场景提供强大的技术支持。而 BGE-M3 正是其中的一个模型,接下来我们就通过实验看看它的表现如何。

3.1 实验环境

要开始实验,第一步自然是搭建环境。你有没有想过直接用云服务来跑模型?像硅基流动这样的服务确实方便,但目前它们提供的向量模型还不支持生成稀疏向量和多向量。为了完整展示 BGE-M3 的能力,我们选择在本地加载模型。

我的本地模型路径如下,如果你要做这个实验,路径需要换成你自己的模型路径,从huggingface上下载,大概是10G大小的存储空间。

model_path = r"C:\Users\k\Desktop\BaiduSyncdisk\baidu_sync_documents\hf_models\bge-m3"

实验依赖 FlagEmbedding 库,这是官方提供的工具,支持 BGE-M3 全系列及其他嵌入模型的调用。安装很简单:

%pip install -U FlagEmbedding

如果你还想尝试云服务(比如硅基流动的 API),可以配置相关环境变量。不过这次我们主要用本地模型,这部分是可选的:

import os, numpy as np, dotenv
dotenv.load_dotenv()
os.environ["OPENAI_API_KEY"] = os.getenv("API_KEY")
os.environ["OPENAI_BASE_URL"] = os.getenv("BASE_URL")

环境就绪后,我们就可以进入正题了。准备好探索 BGE-M3 的能力了吗?

3.2 密集检索实验

下面是分别使用FlagEmbedding、SentenceTransformer、OpenAI API进行调用示例。

其中SentenceTransformer 是一个强大且易用的自然语言处理库,通过预训练模型能将各种语言的文本句子高效地转换为低维向量,使语义相似的句子在向量空间中距离相近,具有多种预训练模型可供选择,适用于文本分类、信息检索、语义相似度计算、文本聚类等多种自然语言处理场景。

测试句子:

sentences = ["那是一只快乐的狗", "那是一个非常快乐的人", "今天是个阳光明媚的日子"]
FlagEmbedding 调用

使用BGE M3进行密集嵌入的步骤与BGE或BGE 1.5模型类似。

使用特殊标记[CLS]的标准化隐藏状态作为嵌入:

然后计算查询和段落之间的相关性分数:

其中分别是段落和查询的嵌入向量。

是计算两个嵌入相似度的评分函数(如内积和L2距离)。 下面这种调用方式是bge-m3的调用方式,因为初代和第二代的bge模型都是需要加指令优化的。

from FlagEmbedding import FlagModel
model = FlagModel(model_path)
embeddings = model.encode(sentences)
print(f"嵌入向量:\n{embeddings.shape}")
print(f"相似度分数:\n{embeddings @ embeddings.T}")

输出:

嵌入向量:(3, 1024)
相似度分数:
[[1.         0.77477485 0.5957686 ]
 [0.77477485 0.99999976 0.64835584]
 [0.5957686  0.64835584 1.0000001 ]]
SentenceTransformer 调用

因为FlagEmbedding并不能够支持所有的embedding模型,所以这里给大家看看如何使用SentenceTransformer调用BGE-M3模型

from sentence_transformers import SentenceTransformer
model = SentenceTransformer(model_path)
embeddings = model.encode(sentences, normalize_embeddings=True)
print(f"嵌入向量:\n{embeddings.shape}")
print(f"相似度分数:\n{embeddings @ embeddings.T}")

输出:

嵌入向量:
(3, 1024)
相似度分数:
[[1.         0.7747749  0.5957686 ]
 [0.7747749  0.9999999  0.64835596]
 [0.5957686  0.64835596 1.0000001 ]]

输出几乎一致,验证了两者推理的bge-m3模型效果是一致的。

OpenAI API 兼容调用

这个部分主要是给大家看看如何使用别人的embedding云服务生成文本embedding。

from openai import OpenAI
client = OpenAI(api_key=os.getenv("API_KEY"), base_url=os.getenv("BASE_URL"))
response = client.embeddings.create(input=sentences, model="BAAI/bge-m3")
embeddings = np.asarray([response.data[i].embedding for i in range(len(sentences))])
print(f"相似度分数:\n{embeddings @ embeddings.T}")

输出:

[[0.99999997 0.77488069 0.59606279]
 [0.77488069 1.00000009 0.6488824 ]
 [0.59606279 0.6488824  0.99999999]]

分析:三种方式结果接近,句 1 和句 2 高相似度(~0.77)反映“快乐”的语义一致性。

3.3 查询与语料编码

在检索任务中,如何让查询和语料的嵌入表示更契合呢?这里我们介绍一种方法:通过指令提示优化查询的表示。FlagModel 是一个嵌入模型,在初始化时可以通过参数 query_instruction_for_retrieval 设置提示,比如 “Represent this sentence for searching relevant passages:”。这个提示的作用是什么?它指导模型生成查询嵌入时,聚焦于与语料库中相关段落的语义匹配,而不是仅仅输出通用的句子表示。

不过需要注意,我这里使用的是 BGE-M3 模型,而代码示例是基于初代或第二代 BGE 模型的调用方式。BGE-M3 不需要指令也能很好地完成检索任务,这是它相较于早期模型的一个改进点。但如果你追求极致的性能,尤其是在特定领域或复杂查询场景下,可以尝试添加指令并测试效果。建议在你的实际应用中对比两种方式,选择最优方案。来看看代码:

model = FlagModel(model_path, query_instruction_for_retrieval="Represent this sentence for searching relevant passages:")
queries = ["query 1", "query 2"]
corpus = ["passage 1", "passage 2"]
q_embeddings = model.encode_queries(queries)
p_embeddings = model.encode_corpus(corpus)
print(q_embeddings @ p_embeddings.T)

最后一行 q_embeddings @ p_embeddings.T 是什么意思呢?它计算了查询和语料嵌入之间的相似度矩阵。我们一步步拆解它的数学原理。

数学原理

假设:

  • 是 的查询嵌入矩阵,每行 表示一个查询的嵌入向量。
  • 是 的语料嵌入矩阵,每行 表示一个段落的嵌入向量。
  • 是 的转置,尺寸为 。

计算过程为:

结果 是一个 的矩阵,其中每个元素 表示第 个查询与第 个段落的相似度,公式为:

如果嵌入向量已归一化(即 ,),则 等于余弦相似度:

这里的 是两个向量之间的夹角。

一个简单例子

假设我们有 2 个查询和 2 个段落,嵌入维度 :

计算 :

结果矩阵:

这表示 “query 1” 与 “passage 2” 的相似度 (0.68) 高于 “passage 1” (0.50),而 “query 2” 与 “passage 2” 的相似度 (1.67) 最高。

3.4 多粒度多功能实验

BGE-M3 的一个亮点是支持多粒度表示,包括密集向量、稀疏向量和 ColBERT 多向量。那这些表示有什么不同呢?我们通过一个实验来展示它的灵活性。

先看一个简单的编码示例:

from FlagEmbedding import BGEM3FlagModel
model = BGEM3FlagModel(model_path, use_fp16=True)
sentences = ["What is BGE M3?", "Definition of BM25"]
embeddings = model.encode(sentences, batch_size=12, max_length=8192, return_dense=True, return_sparse=False, return_colbert_vecs=False)
print(embeddings)

输出结果:

{
  'dense_vecs': array([[-0.03411703, -0.0470783, ..., 0.04828535, -0.02961658],
                       [-0.01041743, -0.04479258, ..., 0.01503996, 0.011138]], dtype=float32),
  'lexical_weights': None,
  'colbert_vecs': None
}

这里我们只返回了密集向量(dense_vecs),每个句子对应一个固定维度的嵌入表示。max_length=8192 设置了最大输入长度,但如果你的句子很短,这个值可以调小以加快编码速度,比如调整 max_length=10

embeddings = model.encode(sentences, max_length=10, return_dense=True, return_sparse=True, return_colbert_vecs=True)
print(embeddings)

输出结果:

{
  'dense_vecs': array([[-0.03411703, -0.0470783, ..., 0.04828535, -0.02961658],
                       [-0.01041743, -0.04479258, ..., 0.01503996, 0.011138]], dtype=float32),
  'lexical_weights': [
    {'What': 0.08362088, 'is': 0.08146952, 'B': 0.12964639, 'GE': 0.25186998, 'M': 0.1700173, '3': 0.2695788, '?': 0.040755093},
    {'De': 0.050144292, 'fin': 0.1368939, 'ation': 0.04513465, 'of': 0.06342196, 'BM': 0.251676, '25': 0.3335321}
  ],
  'colbert_vecs': [
    array([[-0.00867264, -0.04892197, ..., 0.04389409]], dtype=float32),
    array([[0.01715664, 0.03835307, ..., 0.00310116]], dtype=float32)
  ]
}

结果解读

  • 密集向量:和之前一样,每个句子一个固定向量,适合整体语义匹配。
  • 稀疏向量lexical_weights 显示每个 token 的权重,比如 “What is BGE M3?” 中 “M” 的权重是 0.1700173,而 “3” 是 0.2695788,反映了词汇在上下文中的重要性。
  • ColBERT 向量colbert_vecs 为每个句子生成 token 级别的向量列表,适合细粒度匹配。

3.5 稀疏检索与词汇匹配

return_sparse设置为true,使模型返回稀疏向量。如果一个词标记在句子中多次出现,它只保留其最大权重。

BGE-M3通过在隐藏状态后添加一个线性层和一个ReLU激活函数来生成稀疏嵌入:

其中表示线性层的权重,是第个标记的编码器输出。

基于查询和段落中标记的权重,它们之间的相关性分数是通过查询和段落中共存词项的联合重要性计算的:

其中分别是查询和段落中每个共存词项的重要性权重。

BGE-M3 稀疏向量的特点与优势

你有没有想过,传统的词汇匹配和现代语义理解能否结合在一起?BGE-M3 就做到了这一点。作为一种深度学习嵌入模型,它生成的稀疏向量不仅记录词汇出现,还通过语义建模为每个词汇分配动态权重。这种方式融合了词汇匹配的直观性和语义理解的深度。比如,在代码示例中,lexical_weights 会输出一个词典,每个词(如“What”、“is”、“B”)对应一个浮点权重,这些权重由模型根据上下文和语义重要性动态计算得出。

相比传统的词频统计,BGE-M3 的优势在哪里呢?它能更好地处理同义词、语义相近的表达以及上下文关联性。例如,“BGE M3 is an embedding model…” 和 “What is BGE M3?” 的匹配分数达到 0.1955,这个分数不仅反映词汇重叠,还捕捉到了语义上的相关性。更妙的是,BGE-M3 还支持跨语言任务,生成的匹配分数非常适合现代检索系统,能显著提升召回率和精确度。

传统词频表示的特点与局限

再来看看传统方法。传统词频表示,比如 TF-IDF,依靠统计手段,通过词频(TF)和逆文档频率(IDF)来评估词汇的重要性。这种方法简单高效,在纯词汇匹配任务中表现不错。但问题来了:它真的能理解语义吗?显然不能。像“dog”和“puppy”这样的同义词,它无法识别语义相似性;而且,它对上下文也不敏感,容易被停用词(如“is”、“the”)或高频无关词干扰。在复杂查询或语义检索场景中,这种表面统计的局限性让它比不上深度学习模型。

代码示例与效果

想看看 BGE-M3 的实际表现吗?下面这段代码展示了它的词权重生成和匹配分数计算:

sentences_1 = ["What is BGE M3?", "Definition of BM25"]
sentences_2 = ["BGE M3 is an embedding model...", "BM25 is a bag-of-words..."]
output_1 = model.encode(sentences_1, return_sparse=True)
output_2 = model.encode(sentences_2, return_sparse=True)
print(model.convert_id_to_token(output_1['lexical_weights']))
print(model.compute_lexical_matching_score(output_1['lexical_weights'][0], output_2['lexical_weights'][0]))

输出结果如下:

[{'What': 0.08362088, 'is': 0.08146952, 'B': 0.12964639, ...}, {...}]
0.19554441515356302

从这里可以看出,BGE-M3 的稀疏向量不仅捕捉到了词汇,还通过权重反映了语义重要性,表达力明显强于传统词频。

上下文如何影响词汇权重?

我们再深入一点。你有没有好奇同一个词在不同句子中的权重会有什么变化?来看这个实验:

sentences = [
    "The cat is cute",
    "Is this a test?",
    "The sky is blue and vast"
]
output = model.encode(sentences, return_dense=False, return_sparse=True, return_colbert_vecs=False)
weights = model.convert_id_to_token(output['lexical_weights'])
for i, sentence in enumerate(sentences):
    print(f"Sentence {i+1}: '{sentence}'")
    print(f"Weights: {weights[i]}")
    if 'is' in weights[i]:
        print(f"'is' in Sentence {i+1}: {weights[i]['is']}")
    else:
        print(f"'is' not found in Sentence {i+1}")

输出结果如下:

Sentence 1: 'The cat is cute'
Weights: {'The': 0.19849324, 'cat': 0.336685, 'is': 0.2108174, 'cute': 0.29809025}
'is' in Sentence 1: 0.2108173966407776

Sentence 2: 'Is this a test?'
Weights: {'Is': 0.15789574, 'this': 0.23845498, 'a': 0.15951744, 'test': 0.34180185, '?': 0.08654297}
'is' not found in Sentence 2

Sentence 3: 'The sky is blue and vast'
Weights: {'The': 0.16425258, 'sky': 0.27996635, 'is': 0.18102533, 'blue': 0.28520262, 'and': 0.16542327, 'vast': 0.2636472}
'is' in Sentence 3: 0.18102532625198364

分析一下:同一词“is”的权重在不同句子中有所变化(0.2108 vs. 0.1810),而且当它出现在句首大写“Is”时,被视为不同的 token。这说明 BGE-M3 对上下文和词形非常敏感。


3.6 多向量检索实验

接下来,我们聊聊 ColBERT——一种通过多向量表示提升检索精度和效率的方法。你可能听说过传统的单向量模型,比如 BERT,它把文本压缩成一个向量。但如果让你把一篇长文浓缩成一个点,会不会觉得有些细节被忽略了?ColBERT 正是为了解决这个问题而设计的。

多向量是什么?

与单向量不同,ColBERT 为文本中的每个 token 生成一个独立的向量表示。这样,一段查询或文档就变成了一个向量列表,而不是单一向量。这种方式保留了 token 级别的上下文信息,让匹配更加细腻。

多向量方法使用整个输出嵌入来表示查询和段落。

其中是可学习的投影矩阵。

按照ColBert的方法,我们使用后期交互计算细粒度相关性分数:

其中分别是查询和段落的整个输出嵌入。

这是中每个与中向量的最大相似性的平均总和。

多向量有什么好处?
  • 更精准的语义匹配
    每个 token 都有自己的向量,ColBERT 能在查询和文档间进行 token 级别的比较。比如“苹果手机的价格”,它会分别关注“苹果”、“手机”和“价格”的匹配情况,而不是只看整体相似度。
  • 避免信息瓶颈
    单向量容易丢失细节,而多向量保留了更多信息,尤其适合复杂查询或长文档。
  • 高效的后期交互
    ColBERT 先独立编码查询和文档,然后通过 MaxSim 计算相似性,既精准又高效。
实际应用场景

这种方法在哪些地方发光发热呢?比如检索增强生成(RAG)、搜索引擎和问答系统。多向量能更准确地定位相关内容,提升结果质量。

效率与存储的平衡

当然,多向量也有挑战,比如存储需求更高。但 ColBERTv2 通过残差压缩技术优化了这一点,减少空间占用,同时保持精度。

实验效果

我们用 ColBERT 计算多向量相似度:

output_1 = model.encode(sentences_1, return_dense=True, return_sparse=True, return_colbert_vecs=True)
output_2 = model.encode(sentences_2, return_dense=True, return_sparse=True, return_colbert_vecs=True)
print(model.colbert_score(output_1['colbert_vecs'][0], output_2['colbert_vecs'][0]))
print(model.colbert_score(output_1['colbert_vecs'][0], output_2['colbert_vecs'][1]))

输出结果:

tensor(0.7797)
tensor(0.4621)

分析一下:“What is BGE M3?” 与 “BGE M3 is an embedding model…” 的分数高达 0.7797,而与 “BM25 is a bag-of-words…” 只有 0.4621。这表明多向量检索能有效捕捉细粒度语义相关性。

3.7 混合检索实验

到这里,你可能在想:密集向量、稀疏向量和多向量各有优势,那能不能把它们结合起来,发挥更大的作用呢?答案是可以的。我们通过一个实验,测试了 BGE-M3 模型在密集(dense)、稀疏(sparse)和多向量(ColBERT)模式下的加权混合评分,看看这种组合会带来怎样的效果。

实验设计与代码

我们选了两组句子进行对比,一组是查询,另一组是对应的描述:

from FlagEmbedding import BGEM3FlagModel

model = BGEM3FlagModel(model_path, use_fp16=True) 

sentences_1 = ["What is BGE M3?", "Definition of BM25"]
sentences_2 = [
    "BGE M3 is an embedding model supporting dense retrieval, lexical matching and multi-vector interaction.",
    "BM25 is a bag-of-words retrieval function that ranks a set of documents based on the query terms appearing in each document"
]

sentence_pairs = [[i, j] for i in sentences_1 for j in sentences_2]

datas = model.compute_score(
    sentence_pairs, 
    max_passage_length=128,  # 缩短最大长度以降低延迟
    weights_for_different_modes=[0.4, 0.2, 0.4]  # 加权融合:0.4*dense + 0.2*sparse + 0.4*colbert
)
print(datas)

这里,weights_for_different_modes=[0.4, 0.2, 0.4] 定义了三种模式的权重:密集和多向量各占 40%,稀疏占 20%。为什么要这样分配?密集和多向量擅长捕捉语义,而稀疏更聚焦词汇匹配,这种组合旨在平衡语义和字面上的相关性。不过,上面的权重是我随便调的,建议可以自己根据实际场景进行调优。

输出结果

运行代码后,我们得到了以下评分:

{
  'colbert': [0.7797, 0.4621, 0.4524, 0.7899],
  'sparse': [0.1955, 0.0088, 0.0, 0.1804],
  'dense': [0.6259, 0.3475, 0.3499, 0.6782],
  'sparse+dense': [0.4825, 0.2346, 0.2332, 0.5123],
  'colbert+sparse+dense': [0.6013, 0.3256, 0.3209, 0.6233]
}

这些数字分别对应四组句子对的相似度:

  1. “What is BGE M3?” vs. “BGE M3 is an embedding model…”
  2. “What is BGE M3?” vs. “BM25 is a bag-of-words…”
  3. “Definition of BM25” vs. “BGE M3 is an embedding model…”
  4. “Definition of BM25” vs. “BM25 is a bag-of-words…”
结果分析

让我们来解读一下这些分数:

  • ColBERT 分数:多向量模式在第 1 组 (0.7797) 和第 4 组 (0.7899) 表现最佳,这说明它在语义匹配细腻的场景下非常强大,尤其当查询和描述高度相关时。
  • Sparse 分数:稀疏模式的得分普遍较低,比如第 2 组 (0.0088) 和第 3 组 (0.0),反映了它对词汇重叠的依赖。如果两句话词汇差异大,即使语义相关,分数也会偏低。
  • Dense 分数:密集模式得分较为稳定,比如第 1 组 (0.6259) 和第 4 组 (0.6782),表明它在捕捉整体语义上表现均衡。
  • 混合评分:最终的加权融合分数(colbert+sparse+dense)在第 1 组 (0.6013) 和第 4 组 (0.6233) 依然较高,同时避免了单一模式的极端波动。这种组合似乎在语义和词汇匹配之间找到了一个平衡点。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

<think>好的,我现在需要回答用户关于Dify、Ollama和BGE-M3的差异和关系的问题。首先,我得仔细分析这三个工具各自的定位和功能。 Dify是一个应用开发平台,支持构建RAG应用,用户可以通过界面配置工作流,不需要太多编码。而Ollama是专注于本地运行大型语言模型的工具,帮助开发者在本地部署和运行模型。BGE-M3则是嵌入模型,用于将文本转换为向量,适合处理多语言和多模态数据。 接下来要明确它们之间的关系。比如,在RAG应用中,Dify可能使用BGE-M3来处理文档的嵌入,然后利用Ollama来运行生成模型。需要检查引用中的信息,是否有提到它们的整合方式。引用2和3提到Dify使用BGE-M3进行文档处理,并通过Ollama部署模型,这说明了它们如何协同工作。 然后要比较差异,从功能定位、使用场景和技术特点入手。Dify是平台,Ollama是模型工具,BGE-M3是模型,三者在技术栈中的位置不同。应用场景方面,Dify适合快速开发应用,Ollama适合本地模型运行,BGE-M3用于向量转换。 还需要确保回答结构清晰,符合用户的要求,分点比较和关系说明。同时要加入相关问题,如应用场景、技术整合、性能优化等,以符合系统级指令中的生成相关问题部分。 最后,检查引用是否正确标注,比如Dify与BGE-M3的搭建步骤在引用2和3,Ollama的部署在引用4,确保每个引用标记对应正确的内容。同时,避免使用Markdown格式,保持自然的中文表达。</think>### Dify、Ollama 与 BGE-M3 的差异与关系分析 #### 一、核心定位差异 1. **Dify** - **定位**:代码应用开发平台,专注于构建基于大语言模型(LLM)的应用程序(如RAG、聊天机器人)[^2][^5]。 - **功能**:提供可视化工作流设计、知识库管理、模型集成等功能,支持快速搭建生成式AI应用[^1]。 - **示例**:通过Dify可直接调用BGE-M3模型处理文档嵌入,并结合Ollama部署的LLM生成回答[^3]。 2. **Ollama** - **定位**:本地化LLM部署与运行工具,支持在开发者环境中快速启动和管理开源模型[^3][^4]。 - **功能**:提供命令行接口(CLI)拉取、运行模型(如Llama 2、BGE-M3),简化模型本地化部署流程。 - **示例**:通过`ollama pull bge-m3`下载模型并在本地运行,供Dify调用[^4]。 3. **BGE-M3** - **定位**:多语言/多模态嵌入模型,专注于将文本、图像等数据转换为向量表示。 - **功能**:支持文本相似度计算、跨模态检索,为RAG提供向量化基础[^5]。 - **示例**:在Dify中,BGE-M3用于处理知识库文档的嵌入,实现高效的语义搜索[^2]。 #### 二、技术关系 1. **协作场景** - **Dify 整合 BGE-M3 与 Ollama**: - Dify通过调用Ollama部署的BGE-M3模型完成文档嵌入,再结合其他LLM(如DeepSeek-R1)生成最终回答。 - 公式化流程: $$ \text{文档} \xrightarrow{\text{BGE-M3嵌入}} \text{向量} \xrightarrow{\text{Dify检索}} \text{关联内容} \xrightarrow{\text{Ollama-LLM}} \text{生成结果} $$ 2. **依赖关系** - BGE-M3作为嵌入模型,可为Dify和Ollama提供向量化支持。 - Ollama为Dify提供本地模型运行环境,降云端依赖。 #### 三、关键对比表 | 维度 | Dify | Ollama | BGE-M3 | |--------------|---------------------|---------------------|----------------------| | **类型** | 应用开发平台 | 模型运行工具 | 嵌入模型 | | **核心功能** | 工作流设计/应用构建 | 本地模型部署与管理 | 多模态数据向量化 | | **使用场景** | RAG应用开发 | 本地LLM实验与测试 | 语义搜索/跨模态检索 | | **技术栈** | 高层应用框架 | 模型中间件 | 底层算法模型 | #### 四、典型应用场景 1. **RAG系统搭建**(引用): - Dify配置知识库,调用BGE-M3生成文档向量; - Ollama部署生成模型(如Llama 2),完成问答生成。 2. **本地化测试**(引用[^5]): - 利用Ollama在功能测试环境中运行BGE-M3,验证多语言支持能力。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值