ModelCache简介
ModelCache是由CodeFuse AI团队开发的一个开源项目,旨在为大语言模型(LLM)提供语义缓存能力。通过缓存预生成的模型结果,ModelCache可以显著减少相似请求的响应时间,从而提升用户体验。
该项目的主要目标是通过引入缓存机制来优化LLM服务,帮助企业和研究机构降低推理部署成本,提高模型性能和效率,并为大模型提供可扩展的服务。
核心特性
ModelCache继承了GPTCache的主要思想,包括以下核心模块:
- adapter: 处理各种任务的业务逻辑
- embedding: 将文本转换为语义向量表示
- similarity: 对召回的向量进行排序和相似度评估
- data_manager: 管理数据库
为了更好地适应工业应用,ModelCache在架构和功能上做了一些升级:
- 类似Redis的嵌入式设计,提供语义缓存能力
- 支持多种模型加载方案
- 数据隔离能力(环境隔离、多租户数据隔离)
- 支持系统命令
- 长短文本区分处理
- Milvus性能优化
- 数据管理能力(缓存清理、命中查询召回等)
快速部署
ModelCache提供了两种启动脚本:
- flask4modelcache_demo.py: 快速测试服务,内嵌sqlite和faiss
- flask4modelcache.py: 正常服务,需配置mysql和milvus数据库
依赖环境
- Python 3.8+
- 安装依赖包:
pip install -r requirements.txt
启动服务
- 下载embedding模型文件
- 使用对应脚本启动后端服务
更多详细步骤请参考