【工程记录】ChatGLM3-6B 部署的详细教程(Windows)

写在前面

仅作个人学习记录用。本文记录ChatGLM3-6B在Windows操作系统中的部署的详细方法。

1. 环境配置

Github地址:ChatGLM3

作者注释:transformers库版本推荐为4.30.2,torch推荐使用 2.0 及以上的版本,以获得最佳的推理性能。为了防止依赖之间的版本冲突,首先安装torch(gpu版的torch,除非你想使用cpu进行推理与微调)。

详细安装步骤可以参考我的另一篇记录文章:《【工程记录】conda虚拟环境配置+Pycharm使用pytorch-gpu环境(Windows)》

需要注意的是,ChatGLM3-6b的部分功能实现需要 Python ≥ 3.10。

然后使用 pip 安装剩余的依赖(由于已经安装了torch,因此可以删掉requirements.txt中的 torch≥2.0 一行):

pip install -r requirements.txt

2. 下载ChatGLM3-6b模型

Github地址:ChatGLM3 中的代码会由 transformers 自动下载模型实现和参数。如果你的网络较差,下载模型参数可能会花费非常长的时间甚至失败。此时建议可以先将模型下载到本地,然后从本地加载。

1. 从 Hugging Face Hub 下载模型

可以使用git进行克隆,运行:git clone https://huggingface.co/THUDM/chatglm3-6b。值得注意的是,要使用这种方法,下载模型需要先安装Git LFS。

还有一种较为简单的方法,即是直接从网站页面【链接】上点击下载模型。

2. 从 ModelScope 下载模型

如果从你从 HuggingFace 下载比较慢,也可以从ModelScope【链接】中下载。

ModelScope可以通过API下载,代码如下:

pip install modelscope

from modelscope import snapshot_download
model_dir = snapshot_download("ZhipuAI/chatglm3-6b", revision = "v1.0.0")

或通过git下载:

git lfs install
git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git

下载完成后,将MODEL_PATH统一改成你下载的模型所在的文件夹位置。

3. 实现pycharm运行web_demo

ChatGLM3-6b部署完毕,接下来可以运行Demo来验证是否部署成功。

Windows系统下要想实现pycharm运行.sh文件或者启动基于Streamlit的网页版demo,需要下载安装Git。安装步骤详见:《Git 详细安装教程》

然后在pycharm中按顺序点击:File—>Settings—>Tools—>Terminal—>Shell path

将cmd.exe改成刚刚下载的git的路径,注意选择的是 [你的安装路径]/Git/bin/sh.exe,而不是 [你的安装路径]/Git/bin/git.exe

  • 如果git bash无法使用conda命令,尝试输入. [anaconda安装位置]/etc/profile.d/conda.sh
  • 如果想要永久解决这种情况,在 [你的安装路径]/Git/etc/bash.bashrc 文件(不同版本可能对应文件不同,一般来说是.profile文件和.bashrc文件)中添加一行:. [anaconda安装位置]/etc/profile.d/conda.sh

接下来进入安装了ChatGLM依赖项的虚拟环境,在终端输入:

source activate base #这句命令可能需要可能不需要
conda activate your_env[环境名]
streamlit run web_demo2.py

效果如图:

在这里插入图片描述
部署完成。

  • 9
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 8
    评论
为了部署chatglm2-6b模型,您需要按照以下步骤进行操作: 1. 首先,您需要安装一些必要的工具,如Python和Git。确保您已经正确安装了这些工具。 2. 接下来,您需要从HuggingFace下载chatglm2-6b的所有模型文件和配置文件。将这些文件放入一个名为"chatglm2-6b"的文件夹中。建议您手动下载并放入该文件夹。 3. 进入web_demo.py所在的文件夹。您可以使用终端或命令提示符进入该文件夹。 4. 激活chatglm2-6b环境。根据您的操作系统和环境设置,您可能需要运行相应的命令来激活chatglm2-6b环境。例如,对于conda环境,您可以使用"conda activate chatglm2-6b"命令。 5. 最后,执行"python web_demo.py"命令来运行模型。这将启动一个Web演示界面,您可以在其中测试和使用chatglm2-6b模型。 请注意,这只是部署chatglm2-6b模型的基本过程。具体的步骤可能会因您的操作系统、环境设置和个人偏好而有所不同。确保您按照相关文档或指南进行操作,并遇到问题时,可以参考相应的解决办法或寻求帮助。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [ChatGLM2-6B安装详解(Windows/Linux)及遇到的问题解决办法](https://blog.csdn.net/weixin_41529012/article/details/131456645)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [手把手带你linux部署清华大学大模型最新版 chaglm2-6b](https://blog.csdn.net/stay_foolish12/article/details/131437090)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值