本地部署chatGLM3-6b教程

之前一直用的chatGLM2,将FastGPT本地化跑通后,现在试试将chatGLM2升级为chatGLM3。升级就比较顺利了,过程如下,该过程参考了哔哩哔哩网站的一个视频。连接如下:

23 本地化部署ChatGLM3-6B模型_哔哩哔哩_bilibili

21 OpenAI风格API调用_哔哩哔哩_bilibili

1、用conda建立虚拟环境

conda create --name chatglm3_multi python-3.11

切换到虚拟环境:

conda activate chatglm3_multi

可以使用conda env list查看已经创建的虚拟环境:

2、pytorch-GPU版本安装

Previous PyTorch Versions | PyTorch

安装命令(根据自己电脑的cuda版本进行选择):

conda install pytorch==2.2.2 torchvision==0.17.2 torchaudio==2.2.2 pytorch-cuda=12.1 -c pytorch -c nvidia

测试是否安装成功:

在python解释器下运行:

import torch

print(torch.cuda.is_available())

如果是Ture则安装成功。

3、克隆项目文件

打开git bash

git clone https://github.com/THUDM/ChatGLM3

更新pip工具

python -m pip install --upgrade pip

用conda那个终端切换到项目文件:

cd D:\NLP\chatglm3_6b\ChatGLM3

安装依赖:

pip install -r requirements.txt

4、下载模型

chatglm3-6b · 模型库 (modelscope.cn)

首先安装下载工具:

pip install modelscope

在终端中进入python命令行。输入:

from modelscope import snapshot_download 

model_dir = snapshot_download("ZhipuAI/chatglm3-6b", revision = "v1.0.0")

下载完毕:

模型会默认下载到(windows):

C:\Users\Administrator.cache\modelscope\hub\ZhipuAI

复制到项目文件中去:

5、启动openai-api

运行api_server.py

会报错:

OSError: We couldn't connect to 'https://huggingface.co' to load this file,

无法连接到hf中的词嵌入模型,需要在本地部署M3E模型。

到modelscore去下载模型,网址如下:

M3E Models · 模型库 (modelscope.cn)

参考网页介绍下载,到本地去找到模型,复制到项目文件:

修改词嵌入路径为本地:

再次运行:

成功启动

再运行测试接口:

正常访问

用NextChat试试:

完全没有问题。

  • 34
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值