chatglm3-6B本地部署

本文介绍了如何在本地部署ChatGLM模型,包括创建虚拟环境、安装依赖、下载模型、量化处理、API接口设置以及在LangChain中接入大模型。特别关注了如何解决英文输入与中文交互的问题,涉及多语言一致性与模型准确性提升。
摘要由CSDN通过智能技术生成

ChatGLM github地址:https://github.com/THUDM/ChatGLM-6B

在此文件夹下cmd,创建一个专门独立的虚拟环境(部署要求较高,需要运存6G,python建议3.10及以上,transformers 库版本推荐为 4.30.2,torch 推荐使用 2.0 及以上的版本)

从文本读取安装环境依赖,假设环境名为

然后下载模型,可以通过transform,通过python运行下述代码

或者通过网站直接下载

ChatGLM huggingface地址:https://huggingface.co/THUDM/chatglm-6b

(全下就行)

把文件放到一个指定位置就行

运行下述代码测试即可quantize(4)是量化运行小精度,占用内存更小,改为8也可以

如果是手动下载需要改一下路径,依你存模型的路径而定,如下图

包括回应和历史对话,可以提前写几条history来给模型添加前置条件,让模型进行角色扮演。History的编写形式:

测试成功即完成部署。

获取模型的api,进入环境输入dir查看到api.py。

然后运行python api.py,加载模型并开放一个api接口

写下述代码运行,发送post请求,将url改为本地端口,运行代码进行测试,question:后面输入提问,

测试如下

然后进行在langchain中接入大模型,先在下载的chatglm里面找到api.py,修改路径地址path为后下载huggingface的地址,并按需修改量化模式,具体如下

然后下载langchain,(虚拟环境中直接pip,指令如下)

进行以下代码,在langchain中接入模型

实现:

  1. 学会chatglm本地部署,写成手册
  2. 实现本地模型的api调用
  3. 实现在langchain中接入大模型

问题:

  1. 关于解决langchain给chatglm的问题是英文输入,而用户提问问题一般都中文的,如何解决,(包括统一问答语言提高准确性,模型给出问题中英文混杂的问题)

解答:

关于chatglm和 Hugging Face Hub的分别

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值