【超丝滑的LangChain教程】快速入门Conversation Retrieval Chain

使用LangChain构建应用

LangChain支持构建应用程序,将外部数据源和计算源连接到LLM。我们将从一个简单的 LLM 链开始,它只依赖于提示模板中的信息来响应。 接下来,我们将构建一个检索链,该链从单独的数据库获取数据并将其传递到提示模板中。 然后,我们将添加聊天记录,以创建对话检索链。这允许您以聊天方式与此 LLM 进行交互,因此它会记住以前的问题。 最后,我们将构建一个代理,利用 LLM 来确定它是否需要获取数据来回答问题。

Conversation Retrieval Chain

到目前为止,我们创建的链只能回答单个问题。人们正在构建的LLM应用程序的主要类型之一是聊天机器人。那么,我们如何将这条链转化为一条可以回答后续问题的链呢?

我们仍然可以使用create_retrieval_chain函数,但我们需要更改两件事:

  • 检索方法现在不应该只针对最近的输入,而是应该考虑整个历史。
  • 最后的LLM链同样应考虑整个历史。

背景

基于百度百科的《让子弹飞》介绍,设计一个带历史对话的聊天机器人。

准备工作

主要是网页数据的加载、嵌入模型的初始化、向量数据库的初始化等,具体代码如下。

from langchain_community.document_loaders import WebBaseLoader
from langchain.embeddings.huggingface import HuggingFaceEmbeddings
import torch
from langchain_community.vectorstores import FAISS
from langchain_text_splitters import RecursiveCharacterTextSplitter 

# 词嵌入模型
EMBEDDING_DEVICE = "cuda" if torch.cuda.is_available() else "mps" if torch.backends.mps.is_available() else "cpu"
embeddings = HuggingFaceEmbeddings(model_name='D:\models\m3e-base', model_kwargs={'device': EMBEDDING_DEVICE})
# 加载外部文档
loader = WebBaseLoader("https://baike.baidu.com/item/%E8%AE%A9%E5%AD%90%E5%BC%B9%E9%A3%9E/5358?fr=ge_ala")
docs = loader.load()
# 文档向量化到FAISStext_splitter = RecursiveCharacterTextSplitter()
documents = text_splitter.split_documents(docs)
vector = FAISS.from_documents(documents, embeddings)
# 得到一个检索器
retriever = vector.as_retriever()

Updating Retrieval

为了更新检索,我们将创建一个新的链。该链将接收最近的输入(input)和会话历史(chat_history),并使用LLM生成搜索查询。

from langchain.chains import create_history_aware_retriever
from langchain_core.prompts import MessagesPlaceholder  
prompt = ChatPromptTemplate.from_messages([    
    MessagesPlaceholder(variable_name="chat_history"),    
    ("user", "{input}"),    
    ("user", "Given the above conversation, generate a search query to look up in order to get information relevant to the conversation")
])
retriever_chain = create_history_aware_retriever(llm, retriever, prompt)

现在我们有了这个新的检索器,我们可以创建一个新的链来继续对话,并牢记这些检索到的文档。

prompt = ChatPromptTemplate.from_messages([    
    ("system", "Answer the user's questions based on the below context:\n\n{context}"), 
    MessagesPlaceholder(variable_name="chat_history"),    
    ("user", "{input}"),
])
document_chain = create_stuff_documents_chain(llm, prompt) 
retrieval_chain = create_retrieval_chain(retriever_chain, document_chain)

测试一下效果

chat_history = [
    HumanMessage(content="《让子弹飞》什么时候在大陆上映的?"), 
    AIMessage(content="《让子弹飞》的大陆上映时间是2010年12月16日。")
]
retrieval_chain.invoke({    
    "chat_history": chat_history,    
    "input": "那韩国上映时间呢?"
})

最终输出

《让子弹飞》在2011年10月8日在韩国上映。

以上就是一个简单的,带历史记录的聊天机器人。整个的流程大概是:检索文档找到关联的文档(一条或者多条),基于文档和历史对话进行问答,得到问题的答案。

  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值