前言
我的电脑性能不足,cpu和内存都比较落后,而且没有显卡。所以langchain-chatchat使用本地化模型和EMBEDDING启动之后电脑非常卡顿,经常宕机。此时如果还想二次开发langchain-chatchat,或者开发完成后,我们想部署在配置很低的云服务器里就很困难了。那如何解决这个问题呢
一、我们可以使用轻量级模式
最轻模式本地部署方案
该模式的配置方式与常规模式相同,但无需安装 torch 等重依赖,通过在线API实现 LLM 和 Ebeddings 相关功能,适合没有显卡的电脑使用。
二、操作步骤
1.申请在线的LLM和 Ebeddings
在阿里云DashScope灵积模型服务注册账号,申请api-key。
https://dashscope.console.aliyun.com
2.修改配置文件
找到配置文件 model_config.py
修改EMBEDDING_MODEL为qwen-api
配置文件里继续搜索 qwen-api,然后修改 api-key 的位置,填入你刚才申请的api-key。要注意的是 version这里,qwen-max的免费额度比较少,如果想免费额度高,请修改为qwen-turbo
3.安装依赖,并使用lite模式启动
$ pip install -r requirements_lite.txt
$ python startup.py -a --lite
运行完成可以看到效果
总结
如果我们没有很好的电脑也可以按上面的方法。轻松学习langchain-chatchat。同时我们可以在cpu、内存都很低的云服务器里运行我们写好的服务了。