langchain-chatglm(v0.2.0)使用更新说明-项目更名为Langchain-Chatchat

0.2.0 版本与 0.1.x 版本区别

1.使用 FastChat 提供开源 LLM 模型的 API,以 OpenAI API 接口形式接入,提升 LLM 模型加载效果;
2.使用 langchain 中已有 Chain 的实现,便于后续接入不同类型 Chain,并将对 Agent 接入开展测试;
3.使用 FastAPI 提供 API 服务,全部接口可在 FastAPI 自动生成的 docs 中开展测试,且所有对话接口支持通过参数设置流式或非流式输出;
4.使用 Streamlit 提供 WebUI 服务,可选是否基于 API 服务启动 WebUI,增加会话管理,可以自定义会话主题并切换,且后续可支持不同形式输出内容的显示;
5.项目中默认 LLM 模型改为 THUDM/chatglm2-6b,默认 Embedding 模型改为 moka-ai/m3e-base,文件加载方式与文段划分方式也有调整,后续将重新实现上下文扩充,并增加可选设置;
6.项目中扩充了对不同类型向量库的支持,除支持 FAISS 向量库外,还提供 Milvus, PGVector 向量库的接入;
7.项目中搜索引擎对话,除 Bing 搜索外,增加 DuckDuckGo 搜索选项,DuckDuckGo 搜索无需配置 API Key,在可访问国外服务环境下可直接使用。
其他详见项目地址说明
国外github地址
国内 gitcode地址

获取源码并修改配置

本文基于windows10系统,IDE为VS code。
1.下载zip源码到本地
在这里插入图片描述
2.解压,并用VS code编辑器打开。
在这里插入图片描述
3.修改configs\model_config.py.example 将其重命名为configs\model_config.py
在这里插入图片描述
4.修改configs\model_config.py文件中embedding_model_dict配置
ps:0.2.0版本已将默认Embedding 更换为moka-ai/m3e-base ,为了方便这里我我们还使用之前版本的GanymedeNil/text2vec-large-chinese
将embedding_model_dict中text2vec修改为本地路径
在这里插入图片描述
注意windows系统下路径中的\转义。
将EMBEDDING_MODEL配置修改为text2vec
在这里插入图片描述

5.修改configs\model_config.py文件中llm_model_dict配置
ps:0.2.0版本默认的 LLM 模型为 THUDM/chatglm2-6b,同时本次0.2.0升级fastchat全部支持流式输出。
我们将llm_model_dict配置中chatglm2-6b的api_base_url修改自己的API地址
在这里插入图片描述

将LLM_MODEL修改为chatglm2-6b(默认是这个,不用修改)
在这里插入图片描述

启动服务

请注意: 0.2.0及更新版本的依赖包与0.1.x版本依赖包可能发生冲突,强烈建议新建环境后重新安装依赖包。
1.新建终端执行 (使用清华源加速)

pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple/

2.使用本地模型权重需要加载
在项目根目录下,执行 server/llm_api.py 脚本启动 LLM 模型服务:

python server/llm_api.py

以如上方式启动LLM服务会以nohup命令在后台运行 fastchat 服务,如需停止服务,可以运行如下命令:

python server/llm_api_shutdown.py --serve all

亦可单独停止一个 fastchat 服务模块,可选 [all, controller, model_worker, openai_api_server]
3.我们使用云端的fastchat接口直接运行如下命令即可

python server/api.py

启动成功在这里插入图片描述
启动 API 服务后,可访问 localhost:7861 或 {API 所在服务器 IP}:7861 FastAPI 自动生成的 docs 进行接口查看与测试。

FastAPI docs 界面
在这里插入图片描述
4.启动 Web UI 服务
执行 webui.py 启动 Web UI 服务(默认使用端口8501)

python -m streamlit run webui.py --server.port 8808

5.打开浏览器http://localhost:8808/
在这里插入图片描述

功能介绍

1.LLM对话(直接与模型对话)
在这里插入图片描述2.知识库管理(新建一个名为test的知识库)
在这里插入图片描述上传一份txt文件
在这里插入图片描述ps:第一次上传文件会自动创建向量库,若更换Embedding或其他向量库(如Milvus, PGVector )等。可以重新生成向量库
在这里插入图片描述3.知识库问答
在这里插入图片描述

部署并测试完成功能

感谢langchain-chatGLM作者 @imClumsyPanda以及其团队成员

下面是langchain-chatGLM项目的初期视频介绍BliBli

到这写完了,又回去看了眼项目,发现改名了
在这里插入图片描述

写在最后

欢迎移步我的Github仓库,https://github.com/Jun-Howie/erniebot-openai-api
本仓库使用飞桨星河社区接入ernie-4.0联网功能,如果你需要可以Fork我的仓库,还请给个Star让我知道

  • 4
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 20
    评论
根据您提供的引用内容,Langchain-Chatchat在执行过程中出现了JSONDecodeError: Expecting value: line 1 column 1 (char 0)的错误。要解决这个问题,可以尝试以下两种方法: 方法一:在encoding.py的data.decode函数后面加上一个ignore属性。这样做可以忽略解码过程中可能出现的错误,并继续进行安装。 方法二:如果您是在conda创建的虚拟环境中操作,可以在conda的安装目录下找到类似的encoding.py文件。例如,如果conda安装在D盘,可以找到D:\Anaconda\envs\langchain\Lib\site-packages\pip\_internal\utils\encoding.py。同样地,在encoding.py的data.decode函数后面加上一个ignore属性。 希望以上方法能够帮助您解决Langchain-Chatchat中的JSONDecodeError问题。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [windows环境下的langchain-ChatGLM的本地部署](https://blog.csdn.net/muwpq/article/details/131270390)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *3* [langchain-chatglmv0.2.0使用更新说明-项目更名Langchain-Chatchat](https://blog.csdn.net/weixin_42232045/article/details/132271595)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 20
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Harvey-J

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值