chatglm3本地部署(综合Demo版本)教程

1.下载代码

我是在本地c盘中,创建了一个glm3文件夹,然后把代码拉到这个文件夹里,所以在clone之前,需要在cmd中,把路径切换到glm3文件夹下,然后执行如下代码。

git clone https://github.com/THUDM/ChatGLM3

2.模型下载

https://modelscope.cn/models/ZhipuAI/chatglm3-6b/files
在这里插入图片描述
所有内容都需要下载,下载完成后,放入如下地址
在这里插入图片描述

3.环境配置

首先检查自己gpu的cuda版本,在cmd中使用nvidia-smi命令
在这里插入图片描述
我的是12.3,然后到https://pytorch.org/get-started/locally/中,选取适合自己的torch版本,我的选择如下图
图1
接着使用Anaconda Navigator创建一个conda环境
在这里插入图片描述
没有Anaconda Navigator 的,可以使用命令行创建一个

conda create -n chatglm3 python==3.10.13

激活conda环境

activate chatglm3

使用上面torch官网图中红框里的代码,安装torch

在这里插入图片描述
接下来打开ChatGLM3中的requirements.txt文件,找到里面的torch信息,删除红框中的这一行,因为直接使用这里面的torch,下载的是cpu版本,所以我们上面就自己手动下载了GPU版本。
在这里插入图片描述
删除完成后在ChatGLM3目录下,执行

pip install -r requirements.txt

在这里插入图片描述
其实到这里,已经可以运行普通的demo了,但是我们的目标是运行综合Demo,所以我们需要进到composite_demo目录下,然后安装里面的包。

pip install -r requirements.txt

在这里插入图片描述
然后执行

ipython kernel install --name chatglm3-demo --user

接着需要修改一下client里地址,把地址改成本地模型所在地址,也就是上面下载模型放的位置。
在这里插入图片描述
一切都没有问题的话,最后执行

streamlit run main.py

在这里插入图片描述
访问控制台中的地址
在这里插入图片描述

  • 4
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

牛像话

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值