为什么你的大模型总‘胡言乱语’?RAG技术让它学会‘查资料’!

1、如何让大模型回答专业领域的知识

LLM 的知识仅限于它所训练的数据。 如果你想让 LLM 了解特定领域的知识或专有数据,你可以:

  • 使用 RAG

  • 使用你的数据微调 LLM

  • 结合 RAG 和微调

1.1、微调大模型

在现有大模型的基础上,使用小规模的特定任务数据进行再次训练,调整模型参数,让模型更精确地处理特定领域或任务的数据。更新需重新训练,计算资源和时间成本高。

  • 优点:一次会话只需一次模型调用,速度快,在特定任务上性能更高,准确性也更高。

  • 缺点:知识更新不及时,模型训成本高、训练周期长。

  • 应用场景:适合知识库稳定、对生成内容准确性和风格要求高的场景,如对上下文理解和语言生成质量要求高的文学创作、专业文档生成等。

1.2、RAG

Retrieval-Augmented Generation 检索增强生成

将原始问题以及提示词信息发送给大语言模型之前,先通过外部知识库检索相关信息,然后将检索结果和原始问题一起发送给大模型,大模型依据外部知识库再结合自身的训练数据,组织自然语言回答问题。通过这种方式,大语言模型可以获取到特定领域的相关信息,并能够利用这些信息进行回复。

  • 优点:数据存储在外部知识库,可以实时更新,不依赖对模型自身的训练,成本更低。

  • 缺点:需要两次查询:先查询知识库,然后再查询大模型,性能不如微调大模型

  • 应用场景:适用于知识库规模大且频繁更新的场景,如企业客服、实时新闻查询、法律和医疗领域的最新知识问答等。

简单总结一下:

微调大模型就是通过多次训练提问增加AI的专业知识储备,AI在回答问题时,通过训练所得的知识储备进行回答,缺点是对于 一些实时性较强的信息AI无法给出准确的答案,维护成本高需要经常训练。

RAG就是建立了一个外部知识库,每当用户提问时会先对问题进行拆分关键字,然后再外部知识库检索,最后将问题以及外部知识库检索出的相似度较高的信息一起打包给AI,AI通过合理搭配组织语言回答问题。RAG只需要及时更新外部知识库,成本较低,但是需要两次会话,一次外部数据库一次AI。

1.3、RAG常用方法

  • 全文(关键词)搜索这种方法通过将问题和提示词中的关键词与知识库文档数据库进行匹配来搜索文档。根据这些关键词在每个文档中的出现频率和相关性对搜索结果进行排序。

  • 向量搜索,也被称为 “语义搜索”。文本通过嵌入模型被转换为数字向量。然后,它根据查询向量与文档向量之间的余弦相似度或其他相似性 / 距离度量来查找和排序文档,从而捕捉更深层次的语义含义。

  • 混合搜索,结合多种搜索方法(例如,全文搜索 + 向量搜索)通常可以提高搜索的效果。

2、向量搜索 vector search

2.1、向量 Vectors

可以将向量理解为从空间中的一个点到另一个点的移动。例如,在下图中,我们可以看到一些二维空间中的向量:

a是一个从 (100, 50) 到 (-50, -50) 的向量,b 是一个从 (0, 0) 到 (100, -50) 的向量。

很多时候,我们处理的向量是从原点 (0, 0) 开始的,比如b。这样我们可以省略向量起点部分,直接说 b 是向量 (100, -50)。

如何将向量的概念扩展到非数值实体上呢(例如文本)?

2.2、维度 Dimensions

如我们所见,每个数值向量都有 x 和 y 坐标(或者在多维系统中是 x、y、z,...)。x、y、z... 是这个向量空间的轴,称为维度。对于我们想要表示为向量的一些非数值实体,我们首先需要决定这些维度,并为每个实体在每个维度上分配一个值。

例如,在一个交通工具数据集中,我们可以定义四个维度:“轮子数量”、“是否有发动机”、“是否可以在地上开动”和“最大乘客数”。然后我们可以将一些车辆表示为:

因此,我们的汽车Car向量将是 (4, yes, yes, 5),或者用数值表示为 (4, 1, 1, 5)(将 yes 设为 1,no 设为 0)。

向量的每个维度代表数据的不同特性,维度越多对事务的描述越精确,我们可以使用“是否有翅膀”、“是否使用柴油”、“最高速度”、“平均重量”、“价格”等等更多的维度信息。

2.3、相似度 Similarity

如果用户搜索“轿车Car”,你希望能够返回所有与“汽车automobile”“车辆vehicle”等信息相关的结果。向量搜索就是实现这个目标的一种方法。

如何确定哪些是最相似的?

每个向量都有一个长度和方向。例如,在这个图中,p 和 a 指向相同的方向,但长度不同。p 和 b 正好指向相反的方向,但有相同的长度。然后还有c,长度比p短一点,方向不完全相同,但很接近。

 

那么,哪一个最接近 p 呢?

如果“相似”仅仅意味着指向相似的方向,那么a 是最接近 p 的。接下来是 c。b 是最不相似的,因为它正好指向与p 相反的方向。如果“相似”仅仅意味着相似的长度,那么 b 是最接近 p 的(因为它有相同的长度),接下来是 c,然后是 a。

由于向量通常用于描述语义意义,仅仅看长度通常无法满足需求。大多数相似度测量要么仅依赖于方向,要么同时考虑方向和大小。

2.4、相似度测量 Measures of similarity

相似度测量即相似度计算。四种常见的向量相似度计算方法(这里不展开讨论):

  • 欧几里得距离 Euclidean distance

  • 曼哈顿距离 Manhattan distance

  • 点积 Dot product

  • 余弦相似度 Cosine similarity

 

3、RAG的过程

RAG 过程分为 2 个不同的阶段:索引和检索。

3.1、索引阶段

在索引阶段,对知识库文档进行预处理,可实现检索阶段的高效搜索。

  • 以下是索引阶段的简化图:

Document:外部知识库

Text Splitter:文本分段操作

Segments:分好的段

Embedding Model:将文本转化为向量的向量大模型

Embeddings:转化后的向量

Embedding Store:向量知识库

 

加载知识库文档 ==> 将文档中的文本分段 ==> 利用向量大模型将分段后的文本转换成向量 ==> 将向量存入向量数据库

为什么要进行文本分段?

大语言模型(LLM)的上下文窗口有限,所以整个知识库可能无法全部容纳其中。

  • 你在提问中提供的信息越多,大语言模型处理并做出回应所需的时间就越长。

  • 你在提问中提供的信息越多,花费也就越多。

  • 提问中的无关信息可能会干扰大语言模型,增加产生幻觉(生成错误信息)的几率。

我们可以通过将知识库分割成更小、更易于理解的片段来解决这些问题。

3.2、检索阶段

  • 以下是检索阶段的简化图:

通过向量模型将用户查询转换成向量 ==> 在向量数据库中根据用户查询进行相似度匹配 ==> 将用户查询和向量数据库中匹配到的相关内容一起交给LLM处理  

以上就是对RAG的一个总体上的介绍,如果我的博客对你有帮助,请点赞、收藏、关注我,谢谢! 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值