【大模型从入门到精通31】开源库框架LangChain RAG 系统中的问答技术1


在这里插入图片描述

引言

检索增强生成 (RAG) 系统已经革新了我们与大型数据集互动的方式,使得开发高度复杂的聊天机器人和问答模型成为可能。这些系统的一个关键阶段是将检索到的文档与原始查询一起传递给语言模型 (LM),以生成答案。本章探讨了各种策略以优化这一流程,确保生成的答案准确而全面。

问答与语言模型

一旦相关文档被检索出来,它们必须被有效地整合为连贯的答案。这包括将文档内容与查询上下文相结合,并利用语言模型的能力。

一般流程
  1. 查询接收:接收用户的查询。
  2. 文档检索:从语料库中获取相关文档。
  3. 答案生成:将文档和查询传递给语言模型,该模型生成答案。
整合方法

默认情况下,所有检索到的文档片段都会被传递进语言模型的上下文窗口。然而,由于上下文窗口的大小限制,需要采用诸如 MapReduce、Refine 和 MapRerank 等策略来解决这一约束。

通过高级问答技术增强 RAG 系统

在深入探讨具体问答方法之前,请确保你的开发环境已正确配置。这个设置包括导入必要的库、设置 API 密钥,并调整以适应任何语言模型版本的更新。

import os
import openai
from dotenv import load_dotenv
import datetime

# 加载环境变量并配置 OpenAI API 密钥
load_dotenv()
openai.api_key = os.environ['OPENAI_API_KEY']

# 调整以适应语言模型版本
current_date = datetime.datetime.now().date()
llm_name = "gpt-3.5-turbo"
print(f"正在使用语言模型版本: {llm_name}")

利用 VectorDB 进行文档检索

RAG 系统中的一个重要步骤是从用户的查询中检索相关文档。这可以通过使用向量数据库 (VectorDB) 来实现,它存储文档的嵌入向量。

# 导入用于向量数据库和嵌入向量生成的必要库
from langchain.vectorstores import Chroma
from langchain.embeddings.openai import OpenAIEmbeddings

# 指定向量数据库将持久化其数据的目录
documents_storage_directory = 'docs/chroma/'

# 初始化嵌入向量生成器,使用 OpenAI 的嵌入向量
embeddings_generator = OpenAIEmbeddings()

# 初始化向量数据库,指定存储目录和嵌入向量函数
vector_database = Chroma(persist_directory=documents_storage_directory, embedding_function=embeddings_generator)

# 显示向量数据库中的当前文档数量以验证初始化是否成功
print(f"向量数据库中的文档数量: {vector_database._collection.count()}")

实现问答链

RetrievalQA 链是一种结合文档检索与问答的方法,它利用语言模型的能力根据检索到的文档生成响应。

初始化语言模型
from langchain.chat_models import ChatOpenAI

# 初始化聊天模型,选择指定的语言模型版本
language_model = ChatOpenAI(model_name=llm_name, temperature=0)
配置 RetrievalQA 链
# 导入 langchain 库中的必要模块
from langchain.chains import RetrievalQA
from langchain.prompts import PromptTemplate

# 创建一个自定义提示模板以指导语言模型有效地使用提供的上下文来回答问题
custom_prompt_template = """为了更好地回答问题,请考虑以下提供的细节作为您的参考...
{context}
问题: {question}
有见地的回答: """

# 初始化 RetrievalQA 链,使用自定义提示模板
question_answering_chain = RetrievalQA.from_chain_type(
    language_model,
    retriever=vector_database.as_retriever(),
    return_source_documents=True,
    chain_type_kwargs={"prompt": PromptTemplate.from_template(custom_prompt_template)}
)

问答实战

# 向系统提出一个问题
query = "概率是不是一门课程的主题?"
response = question_answering_chain({"query": query})
print("答案:", response["result"])

请注意,上述代码示例中使用的 qa_chain 变量未被定义,因此在实际运行时应该替换为 question_answering_chain

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

水木流年追梦

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值