20分钟本地部署ChatGLM3-6B

准备工作

1.下载源代码:
https://github.com/THUDM/ChatGLM3

2.下载预训练模型:
https://modelscope.cn/models/ZhipuAI/chatglm3-6b/files
可以创建一个py文件,直接使用如下代码下载到本地:

from modelscope.hub.snapshot_download import snapshot_download

model_dir = snapshot_download('ZhipuAI/chatglm3-6b', cache_dir='F:/pretrained_model/chatglm3-6b/', revision='master')

注意:chatglm3-6B约11G大小

正式部署

1.创建一个虚拟环境(可选)
conda create -n chatglm3 python=3.8 --offline

2.安装requirements
pip install -r requirements.txt
在这里插入图片描述
3.修改代码:

  • 默认调用方式,只需将这里替换为预训练模型的保存路径即可,CPU调用需要32G内存, GPU调用方式需要13G显存
    在这里插入图片描述
  • GPU量化调用方式,修改为如下,需要5G
    在这里插入图片描述

4.运行demo
cd basic_demo
streamlit run web_demo2.py
在这里插入图片描述

在这里插入图片描述
email的地方直接回车,后面就会加载模型了。

在这里插入图片描述
访问改地址即可进行对话:http://localhost:8501/
在这里插入图片描述

小结

和chatglm2相比,输出的结果似乎没有明显的改变,当最大的一个区别在于,chatglm2-6B有专门的int4版本,而chatglm3-gb取消了这个版本,在代码中可以直接指定量化版本。

2024.1.11补充:
发现chatglm3-6B在输出结果中存在着中英文混合、繁体字的问题,即使我的指令中强调了结果中不能出现英文单词和繁体字。也许是新的版本在训练数据中新增了一些训练数据导致的。

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值