RAG(Retrieval-Augmented Generation,检索增强生成)技术通过检索增强生成,显著提升了知识问答的准确性和时效性。在构建知识库时,RAG通过向量数据库和动态更新机制,实现了高效的知识检索与生成;在构建知识图谱时,RAG通过GraphRAG和Graphusion等框架,实现了实体关系的精准抽取与图谱融合。
一、RAG
RAG(Retrieval-Augmented Generation,检索增强生成)是什么?RAG是一种结合信息检索与文本生成的人工智能技术,旨在通过引入外部知识库,解决大语言模型的幻觉问题。
RAG的核心目标是让大语言模型(LLM)在回答问题时不再仅依赖训练时的固化知识,而是动态检索最新或特定领域的资料来辅助生成答案。
RAG结合了信息检索与生成模型,通过以下三阶段工作:
-
检索:从外部知识库(如文档、数据库)中搜索与问题相关的信息。
-
增强:将检索结果作为上下文输入,辅助生成模型理解问题背景。
-
生成:基于检索内容和模型自身知识,生成连贯、准确的回答。
Prompt + RAG 如何实战?结合 Prompt 工程与 RAG(检索增强生成) 的实战应用需围绕数据准备、检索优化、生成控制等环节展开。
一、数据准备与向量化
1. 文档预处理与分块
文档预处理通过多模态数据清洗、词形还原与依存句法分析实现文本规范化;分块环节采用递归分割与语义边界识别技术,结合知识图谱关联优化,构建动态重叠的上下文连贯单元,以平衡检索效率与信息完整性。
# 依赖安装:pip install langchain langchain-text-splitters from langchain_text_splitters import RecursiveCharacterTextSplitter # 示例长文本(替换为实际文本) text = """自然语言处理(NLP)是人工智能领域的重要分支,涉及文本分析、机器翻译和情感分析等任务。分块技术可将长文本拆分为逻辑连贯的语义单元,便于后续处理。""" # 初始化递归分块器(块大小300字符,重叠50字符保持上下文) text_splitter = RecursiveCharacterTextSplitter( chunk_size=300, chunk_overlap=50, separators=["\n\n", "\n", "。", "!", "?"] # 优先按段落/句子分界[2,4](@ref) ) # 执行分块 chunks = text_splitter.split_text(text) # 打印分块结果 for i, chunk in enumerate(chunks): print(f"Chunk {i+1}:\n{chunk}\n{'-'*50}")
2. 向量化与存储
向量化通过Embedding模型将非结构化数据(文本、图像等)映射为高维语义向量,存储则依托专用向量数据库(如ElasticSearch的dense_vector字段、Milvus)构建高效索引(HNSW、FAISS),支持近似最近邻搜索(ANN)实现大规模向量数据的快速相似性匹配。
# 依赖安装:pip install sentence-transformers faiss-cpu from sentence_transformers import SentenceTransformer from langchain_community.vectorstores import FAISS # 1. 文本向量化(使用MiniLM-L6预训练模型) model = SentenceTransformer('paraphrase-MiniLM-L6-v2') embeddings = model.encode(chunks) # 2. 向量存储到FAISS索引库 vector_db = FAISS.from_texts( texts=chunks, embedding=embeddings, metadatas=[{"source": "web_data"}] * len(chunks) # 可添加元数据 ) # 保存索引到本地 vector_db.save_local("my_vector_db") # 示例查询:检索相似文本 query = "什么是自然语言处理?" query_embedding = model.encode([query]) scores, indices = vector_db.similarity_search_with_score(query_embedding, k=3) print(f"Top 3相似块:{indices}")
二、检索优化技术
通过多路召回(如混合检索、HyDE改写、动态重排)提升查全率与排序质量,并利用上下文增强(知识图谱补充关系、指令级RAG动态生成Prompt)优化检索结果。
三、Prompt 工程实践
1. 结构化输入设计
基于角色和场景进行约束,例如法律顾问角色与合同条款咨询场景,结合《民法典》第580条知识单元,通过“用户问题→检索知识→逻辑关联→生成答案”的思维链,分点解释并标注引用来源。
2. 输出模版控制
通过预设模板化输出框架确保格式规范,并设置动态防护栏机制过滤敏感词与校验事实一致性,实现内容生成的安全性与合规性。
二、知识库和知识图谱
知识库(Knowledge Base)是什么?知识库是结构化、易操作的知识集群,通过系统性整合领域相关知识(如理论、事实、规则等),为问题求解、决策支持和知识共享提供基础平台。
RAG构建知识库的核心在于将外部知识检索与大语言模型生成能力结合,通过高效检索为生成提供上下文支持,从而提升答案的准确性和时效性。(实战的重点在文本分块Chunking和向量化Embedding)
1. 文本分块(Chunking)
文本分块是将长文本分割为较小、可管理的片段,以便更高效地处理和分析。
2. 向量化(Embedding)
向量化是将文本或数据映射为高维向量空间中的数值表示,以捕获语义特征。
知识图谱(Knowledge Graph)是什么?知识图谱是一种通过实体与关系构建的语义化网络结构,支持推理与复杂查询,而传统知识库多以非关联的扁平化方式存储数据。
RAG构建知识图谱的核心是通过结合检索技术与大语言模型(LLM),将外部知识库中的结构化与非结构化数据整合为图谱形式。知识图谱为RAG系统注入结构化推理能力,使其从“信息检索器”进化为“知识推理引擎”。
RAG构建知识图谱的关键在于检索与生成的协同,其流程包括:
- 数据预处理:将文档分割为文本块(chunking),并通过命名实体识别(NER)提取实体与关系。
- 知识图谱索引:基于提取的实体与关系,构建初始知识图谱后,运用聚类算法(例如Leiden算法)对图谱中的节点进行社区划分。
- 检索增强:在用户查询时,通过本地搜索(基于实体)或全局搜索(基于数据集主题)增强上下文,提升生成答案的准确性。
更多精彩请移步主页简介,关注回复:977C 哈~