ChatGLM2-6B部署

配置相应的conda 或 python环境

linux系统自带python
可以使用conda create env 来创建新环境来进行部署

打开ChatGLM2-6B官网

网址:https://github.com/THUDM/ChatGLM2-6B

下载源仓库

git clone https://github.com/THUDM/ChatGLM2-6B
cd ChatGLM2-6B

然后使用 pip 安装依赖:

pip install -r requirements.txt

如果torch不好下载,可先下载本地whl文件(找适合自己机器的cuda版本),然后再将requirements.txt文件中的torch一行删除

下载模型参数

1、运行demo.py文件自动下载

路径:/home/yonghuming/.cache/huggingface/hub/models--THUDM--chatglm2-6b/snapshots/b1502f4f75c71499a3d566b14463edd62620ce9f(正确路径!)
在这里插入图片描述

别人的内容:

在这里插入图片描述
在这里插入图片描述

把这几个文件下载好,用scp或者U盘的方式考进上面的(正确路径!)中。
或者用刚更新的lfs自己再download

2、利用清华云镜像下载

如清华Github所示:
以上代码会由 transformers 自动下载模型实现和参数。完整的模型实现在 Hugging Face Hub。如果你的网络环境较差,下载模型参数可能会花费较长时间甚至失败。此时可以先将模型下载到本地,然后从本地加载。

从 Hugging Face Hub 下载模型需要先安装Git LFS,然后运行

git clone https://huggingface.co/THUDM/chatglm2-6b

如果你从 Hugging Face Hub 上下载 checkpoint 的速度较慢,可以只下载模型实现(可以先新建文件夹,再打开terminal去download)

GIT_LFS_SKIP_SMUDGE=1 git clone https://huggingface.co/THUDM/chatglm2-6b

然后从这里手动下载模型参数文件,并将下载的文件替换到本地的 chatglm2-6b 目录下。

将模型下载到本地之后,将以上代码中的 THUDM/chatglm2-6b 替换为你本地的 chatglm2-6b 文件夹的路径,即可从本地加载模型。(如果担心错的话最好就写成绝对路径)

模型的实现仍然处在变动中。如果希望固定使用的模型实现以保证兼容性,可以在 from_pretrained 的调用中增加 revision=“v1.0” 参数。v1.0 是当前最新的版本号,完整的版本列表参见 Change Log。

启动ChatGLM2-6B

直接运行web_demo文件,enjoy。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值