检索增强生成(RAG)的出现,利用外部知识数据库来增强LLMs,弥补了LLMs的幻觉问题、知识更新等问题:
-
系统地介绍了RAG的每个组成部分,特别是检索器和检索融合重要技术,以及带有教程代码的检索融合技术。
-
展示了不同的RAG训练策略,包括带或不带数据存储更新的RAG。
-
讨论了RAG在下游NLP任务和实际NLP场景中的应用。
自然语言处理NLP中检索增强生成的概述 :检索器(Retriever)、检索融合(Retrieval Fusions)、生成器(Generator)
1. 检索器(Retriever)
检索器(Retriever) 是检索增强生成(RAG)中的一个关键组件,其主要作用是从一个外部知识库中检索与输入相关的信息。
使用检索器的两个阶段two-stages
构建阶段:将文档分割成小块,对这些块进行编码,并建立索引以支持高效的检索。
- 分块语料库(Chunking Corpus):
-
固定长度分块:通过设定长度参数顺序地分割文档。
-
基于语义的分块:根据语义标志(如句号或新行字符)切割文档。
-
基于内容的分块:根据文档的结构特征(如电子病历的章节或编程代码的功能块)进行分割。
- 编码块(Encoding Chunks):
-
BERT及其变体:如RoBERTa、DistilBERT、ELECTRA,生成密集的语义嵌入。
-
Siamese Encoders:设计用于学习输入之间相似性的神经网络,如DPR、SimCSE。
-
LLM-based Encoders:利用大型语言模型的表示能力,如text-embedding-ada-002、bge-embedding。
-
稀疏编码:如词袋模型(BoW)、TF-IDF,通过高维向量表示文本,其中大部分元素为零。
-
密集编码:使用深度神经网络模型生成向量,每个维度都可以捕捉语义特征。包括:
-
索引构建(Building the Index):
索引的目的是加速多维查询嵌入的搜索过程,主要关注支持高效的近似最近邻搜索。
-
选择相似性度量(Choice of Similarity Metrics):
- 余弦相似度、欧几里得相似度、曼哈顿距离、雅卡尔相似度等,用于衡量查询嵌入和块嵌入之间的相关性。
- 降维(Dimension Reduction on Embeddings):
-
主成分分析(PCA):一种统计技术,用于将原始数据转换为新坐标系,同时保留最重要的特征。
-
局部敏感哈希(LSH):通过将数据映射到桶中来显著降低维度,同时保留原始输入数据的相似性。
-
乘积量化(PQ):将高维空间划分为更小的、独立量化的子空间。
- 高级ANN索引(Advanced ANN Indexing):
-
IVFPQ:结合倒排文件系统和乘积量化,用于高效和可扩展的ANN搜索。
-
HNSW:使用分层图结构在高维空间中高效执行ANN搜索。
-
基于树的索引:如KD-Trees、Ball Trees和VP-Trees,用于组织高维向量。
- 构建数据存储(Building the Datastore with Key-Value Pairs):
-
使用专门的数据库(如LMDB或RocksDB)存储和管理数据,以支持高效的检索和数据持久性。
-
最近的一些工作提出了各种最先进的向量数据库,包括索引和数据存储,例如Milvus 、FAISS]、LlamaIndex等。
查询阶段:使用相同的编码器对查询进行编码,然后利用预建索引和数据存储进行近似最近邻搜索,以检索相关值。
- 编码查询(Encoding Queries):
- 使用与构建检索器时相同的编码器对查询进行编码,确保查询嵌入与检索器的嵌入空间一致。
- 近似最近邻搜索(ANN Search):
-
利用预构建的索引和数据存储执行近似最近邻搜索,找到与查询最相似的数据。
-
搜索过程涉及比较查询嵌入与聚类嵌入,选择候选聚类,然后在每个聚类内执行产品量化,找到最近邻。
- 索引搜索(Indexing Search):
- 搜索预构建的索引,找到k个最近邻,并返回这些最近邻的唯一标识符。
- 数据存储检索(Datastore Retrieval):
- 根据最近邻的唯一标识符从数据存储中获取相应的值。
- 后处理(Post-Processing):
-
重排序(Reranking):根据任务特定的目标重新排序检索到的知识,以提高相关性。
-
重要性加权(Importance Weighting):为检索到的知识分配重要性权重,过滤掉不太相关的上下文。
2. 检索融合(Retrieval Fusions)
深入探讨了如何将检索到的知识整合到生成模型中,以提高性能:
RAG中融合方法的类别
- 检索融合类型:
-
基于查询的融合(Query-based Fusion):将检索到的信息与输入查询直接连接或合并。
-
潜在融合(Latent Fusion):在生成模型的隐藏层中整合检索到的信息。
-
基于对数的融合(Logits-based Fusion):在生成模型的输出层整合检索到的信息。
- 基于查询的融合技术:
-
文本连接(Text Concatenation):将检索到的文本与查询文本直接连接。
-
特征连接(Feature Concatenation):将检索到的文本编码成特征向量后与查询特征向量合并。
-
FID:一种特征融合方法,将检索到的文本编码为稀疏或密集表示,并将连接的特征作为输入。
- 潜在融合技术:
-
基于注意力的融合(Attention-based Fusion):使用交叉注意力机制将检索到的知识嵌入到模型的隐藏状态中。
-
RETRO:一种使用检索增强的预训练语言模型,引入了一个新的交叉注意力模块。
-
加权添加(Weighted Addition):通过学习权重将检索到的知识嵌入以加权的方式添加到模型的隐藏状态中。
- 基于对数的融合技术:
-
集成融合(Ensemble-based Fusion):将检索到的知识的对数与模型输出的对数结合起来,作为集成预测的一部分。
-
kNN-LM 和 kNN-MT:利用最近邻模型的对数进行语言模型和机器翻译的增强。
-
校准融合(Calibration-based Fusion):使用检索到的知识的对数对模型的预测进行校准或调整。
- 生成器(Generator)
讨论了在检索增强生成(RAG)中使用的生成器类型及其特点:
- 生成器类型:
-
默认生成器(Default Generators):包括大多数预训练/微调的大型语言模型,如GPT系列、Mistral模型和Gemini系列模型。
-
检索增强生成器(Retrieval-Augmented (RA) Generators):这些是包含融合检索信息模块的预训练/微调生成器,例如RETRO和EncDec。
- 生成器的功能:
- 生成器负责生成响应或进行预测,它们通常基于输入和相应的检索结果来生成文本。
- 生成器的架构:
- 生成器通常采用或修改基于Transformer的架构,专注于解码器模块,包括注意力模块和前馈网络模块。
4. RAG训练策略
深入讨论了检索增强生成(RAG)模型的训练方法和策略:
RAG的不同训练策略,包括/不包括数据存储更新
- RAG训练分类:
-
不更新数据存储的RAG训练:只更新RAG中每个模块的可训练参数,数据存储中的知识保持不变。
-
更新数据存储的RAG训练:先更新数据存储中的知识,然后更新RAG中每个模块的参数。
-
数据存储更新(RAG without Datastore Update):
-
检索器训练(Training Retriever):
-
训练检索器编码器并重建索引,通常涉及密集编码方法。
-
根据训练目标,可能需要更换编码器或使用对比学习训练现有编码器。
- 生成器训练(Training Generator):
-
更新生成器的参数或检索融合模块中的参数。
-
采用参数高效的微调技术,如LoRA,以解决大型语言模型(LLMs)的微调问题。
- 联合训练检索器和生成器(Jointly Training Retriever and Generator):
-
同时训练检索器和生成器以提高下游任务的性能。
-
确保从输入到输出的正向过程中的可微性,以实现端到端优化。
- 数据存储更新(Datastore Update):
-
种场景涉及两个阶段:更新知识库,然后训练检索器和生成器。更新知识库有三种情况,即用可训练的嵌入更新、用新值更新和用新语料库更新。
-
在第一种情况下,值通常是可训练的嵌入,并且与RAG中的参数同时/异步更新。最后两种情况通常指的是用最新信息更新知识库。
-
以问答语料库为例,用新值更新指的是更新现有问题的答案,而用新语料库更新指的是添加新的问答对。要更新现有键的值,首先需要查询现有的键值对,然后执行就地更新。对于新的语料库,数据存储首先需要执行插入操作,然后重建或更新新键的索引。更新数据存储后,训练检索器和生成器类似于没有数据存储更新的RAG。
5. RAG的应用场景
RAG技术在各种自然语言处理(NLP)任务中的应用:
- 语言模型(Language Modeling):
- 使用RAG提高预训练阶段的语言模型能力,通过修改生成器架构或在输入和输出中加入检索信息。
- 机器翻译(Machine Translation):
- 利用RAG技术通过将外部知识融入翻译过程来提升翻译质量,可以是文本拼接或对数融合。
- 文本摘要(Text Summarization):
- 应用RAG技术通过检索外部知识和相似文档来增强文本摘要任务,包括提取式和抽象式摘要。
- 问答系统(Question Answering):
- RAG技术结合信息检索和模型生成,适用于开放域和封闭域的问答系统,提高问题理解和信息检索的准确性。
- 信息提取(Information Extraction):
- 使用RAG技术提高信息提取任务的性能,包括命名实体识别(NER)、关系提取(RE)等子任务。
- 文本分类(Text Classification):
- 利用RAG技术增强文本分类任务,如情感分析,通过不同的外部知识融合策略来提升模型性能。
- 对话系统(Dialogue Systems):
- 应用RAG技术改进对话系统,通过检索历史对话或相关信息来生成更连贯、相关的响应。
RAG技术在实际应用场景中的具体实现和作用:
- LLM-based Autonomous Agents:
-
利用RAG为基于大型语言模型的自主智能体提供更广泛的信息访问能力,增强决策和问题解决能力。
-
利用RAG从外部记忆检索信息:
-
智能体可以使用RAG从自己的外部记忆中检索相关信息,以增强其理解和决策能力。
-
利用RAG使用工具搜索网络:
-
智能体可以利用工具搜索网络,获取最新信息,这对于需要最新知识的情境非常有用。
- 框架(Frameworks):
- 介绍了如Langchain和LLaMAindex等框架,它们通过集成复杂的检索机制与生成模型,促进了外部数据在语言生成过程中的整合。
读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用
对于0基础小白入门:
如果你是零基础小白,想快速入门大模型是可以考虑的。
一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。
包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费
】🆓
👉AI大模型学习路线汇总👈
大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
👉大模型实战案例👈
光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
👉大模型视频和PDF合集👈
观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费
】🆓