【langchain学习】使用缓存优化langchain中的LLM调用性能:内存、SQLite与Redis的对比

在处理语言模型(LLM)调用时,特别是在需要多次执行相同请求的情况下,缓存机制能够显著提升系统的性能。本文通过对比内存缓存(InMemoryCache)、SQLite缓存(SQLiteCache)和Redis缓存(RedisCache),探讨了如何在Langchain中使用这些缓存机制来优化LLM调用的性能。

代码实现与性能测试

我们在Python中实现了三种缓存机制,并测试了它们的性能。以下是完整的代码实现及其对应的执行结果。

内存缓存(InMemoryCache)

内存缓存是最简单的缓存机制,它将数据存储在内存中,具有极高的访问速度,但缺点是数据不会持久化,程序重启后缓存数据会丢失。

from langchain.globals import set_llm_cache
from config import llm
from langchain.cache import InMemoryCache
import time

# 开始计时
start_time = time.time()

# 设置内存缓存
set_llm_cache(InMemoryCache())

# 第一次调用,由于缓存中没有内容,因此可能会较慢
llm.invoke("介绍一下2023年环法冠军温格高")

# 结束计时
end_time = time.time()

# 打印执行时间
print(f"Execution first time: {
     end_time - start_time
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值