1. 本地部署
1.1 从Git拉取项目到本地
ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的对话预训练模型。
由于模型的权重文件很大,故需从HuggingFace上拉取到models目录下。
1.2 配置环境
在conda创建一个虚拟环境,其中需要python版本建议3.11以上,随后配置cuda和torch,可以先使用nvidia-smi命令查看cuda支持的最高版本,随后按照pytorch官网的命令进行安装。
切换到配置chatglm的conda环境后,使用pip install -r requirements.txt命令安装所需的包,若是单机单卡运行,可
1.3 本地运行ChatGLM3-6b
在相应文件中把模型地址进行更换,随后在cd到basic_demo后运行py