ChatGLM2本地部署方法

本文介绍了如何将ChatGLM2模型从HuggingFace下载权重文件并打包部署,包括克隆项目、替换路径、使用conda环境管理和CUDA安装注意事项。
摘要由CSDN通过智能技术生成

       chatglm2部署在本地时,需要从huggingface上下载模型的权重文件(需要科学上网)。下载后权重文件会自动保存在本地用户的文件夹上。但这样不利于分享,下面介绍如何将chatglm2模型打包部署。

一、克隆chatglm2部署

      这个项目是chatglm2的部署和实现方式,将模型以网页demo的形式呈现,其并不包含模型的结构。

git clone https://github.com/THUDM/ChatGLM2-6B

二、克隆chatglm2模型

      这个项目包含了模型的结构。GIT_LFS_SKIP_SMUDGE=1的意思是把大文件的大小都压缩为1KB。所以pytorch_model-00001到pytorch_model-00007这个七个文件和tokennizer.model下载后大小均为1KB。

     假设该项目的路径是D:\\model。

GIT_LFS_SKIP_SMUDGE=1 git clone https://huggingface.co/THUDM/chatglm2-6b

三、下载权重文件和语料库

      从官方云盘里下载权重文件和tokennizer并对上述文件进行替换。官方模型权重

四、路径替换

更改下述代码中的路径"THUDM/chatglm2-6b"

tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True).cuda()

在第二节中假设路径为D:\\model,那么在这里就将其改成:

tokenizer = AutoTokenizer.from_pretrained("D:\model", trust_remote_code=True)
model = AutoModel.from_pretrained("D:\model", trust_remote_code=True).cuda()

部署成功!

五、其它问题

     部署的过程中会出现各种各样的问题。这里建议新建一个conda环境,然后再pip install -r requirements.txt安装依赖,将代码置于该环境下执行。此外,安装时务必注意cuda cudunn和python的对应关系。 这样就可以尽量避免报错。

   有关cuda的安装可以看这篇:

   Windows10下ChatGLM2-6B模型本地化安装部署教程图解_chatglm本地部署-CSDN博客

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值