本地部署ChatGLM 和 colab部署

1. 修改huggingface默认的模型下载路径

也可以不修改,不修改默认下载在c盘/用户/xxx/.cache,但模型都很大。

新增用户环境变量变量 HF _HOME 和 HUGGINGFACE_HUB_CACHE,自己选择cache存储地

如果修改成功,下载的时候给出的一堆英文里,是会有你自己写的这个地址的。

2.配置升级

之前 cuda=11.1    pytorch=1.8.0   python=3.7      =>      cuda=11.8    pytorch2.0     python=3.9

关于cuda的升级:先卸载之前的,再nvidia-smi查询自己电脑GPU能安装的最大版本cuda version(右上角这个),再去官网下载对应版本,pytorch2应该是要求cuda11.7或者11.8

 然后在pytorch官网找到安装命令:pip和conda哪个能用就用哪个

conda创建环境py39环境,激活环境,在里面下载pytorch2。(pytorch1.x似乎不行,有一个函数好像没有会报错),而pytorch2似乎又要求高版本python,之前的3.7不行。

conda create -n 名字 python=3.9

conda activate 名字

conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia

pip和conda都有可能报错,有可能网络不行,需要更换源,或者翻出去。我是出去用conda下的。

也有可能版本和环境等不匹配(但按照上面这个步骤新建py39环境,使用对应版本的cuda和pytorch应该是不会有不匹配问题)

验证是否成功:

3.下载运行

git上下载下包,在对应文件夹下运行cmd,进入之后运行web_demo.py

报错的时候,缺啥下载啥,完了电脑可以的话,应该就能去web界面了。

4.在colab部署GHATGLM

但之后捏,因为我电脑不行,按照官方的要求:

所以,,,之后我就搬到了云端,用了google colab,其中有免费GPU可以用,能跑起来int4。其他要求高的应该需要colab会员才能带动。

按照官网指示运行这些命令,在ipython界面交互了。

这里修改了huggingface的模型下载路径,加一个cache_dir,下在谷歌drive里。之后可以从这个路径读取模型。

有一个坑是需要自己打开GPU运行模式,否则cuda不可用,模型起不来。

验证一下,满足了在下载:

  

 结果如下:

  • 5
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值