Langchain-chatchat源码部署及测试实验

       一年多前接触到Langchain-chatchat的0.2版本,对0.2版本进行了本地部署和大量更新,但0.2版本对最新的大模型支持不够好,部署框架支持也不好且不太稳定,特别是多模态大模型,因此本次主要介绍0.3版本的源码部署,希望对大家有所帮助。Langchain-chatchat从0.3版本开始,支持更多的部署框架,如xinference、Ollama和FastChat,较多的是xinference框架,因此本文也是基于该框架进行模型部署。开始时参考了提供的开发指南进行部署,感觉步骤较多且麻烦,因此我就采用直接修改源码方式进行部署,作者提供的前端没有用,主要使用的是libs下面的后端接口和默认基于Streamlit提供的前端测试功能。另外,我更新完善了本地知识库加载的多种文件格式解析模块,增加了验证和路由过滤模块、返回数据格式等等,这里不详细介绍。

一、源码下载

直接去github上找Langchain-chatchat,进行下载,最后下载master线。

二、服务器环境准备

我的环境是Linux Redhat7.5,配置两种gpu显卡,合计96G
安装conda和python3.10环境
上述两步可参考相关文档,相对简单,这里不细说。

三、虚拟环境准备

conda create -n xinferenc

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一望无际的大草原

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值