第五篇-ChatGLM2-6B|ChatGLM3-6B模型下载

下载chatglm2-6b模型文件

https://huggingface.co/THUDM/chatglm2-6b

*** 国内推荐,国内推荐,国内推荐-1 ***
https://aifasthub.com/models/THUDM

*** 国内推荐-2 ***
https://hf-mirror.com/THUDM/chatglm2-6b

下载chatglm3-6b模型文件

https://huggingface.co/THUDM/chatglm3-6b

*** 国内推荐 ***
https://hf-mirror.com/THUDM/chatglm3-6b

方法一:huggingface页面直接点击下载

一个一个下载,都要下载

方法二:snapshot_download下载文件

可以使用如下代码下载

创建下载环境

conda create --name hfhub python=3.10
conda activate hfhub

安装
pip install huggingface_hub -i https://pypi.tuna.tsinghua.edu.cn/simple

编写代码

down_glm2.py

```
from huggingface_hub import snapshot_download
import sys

repo_id = "THUDM/chatglm2-6b"
local_dir = "/opt/models/chatglm2-6b/"
local_dir_use_symlinks = False
revision = "main"
snapshot_download(repo_id=repo_id, 
                local_dir=local_dir,
                local_dir_use_symlinks=local_dir_use_symlinks,
                revision=revision)

```

snapshot_download其他参数
只允许下载部分类型的文件(以JSON为例)
allow_patterns=‘*.json’,

不允许下载部分类型的文件(以JSON为例)
ignore_patterns=[‘*.json’]

执行下

python down_glm2.py

如果有超时可以多试几次,
或allow_patterns指定具体文件 
例如:
snapshot_download(repo_id=repo_id, 
                local_dir=local_dir,
                local_dir_use_symlinks=local_dir_use_symlinks,
                allow_patterns='pytorch_model-00001-of-00007.bin',
                revision=revision)

方法三:清华云盘

清华云盘
https://cloud.tsinghua.edu.cn/d/674208019e314311ab5c/

方法四:异型岛社区版

https://aliendao.cn/models/THUDM
上面搜索下看是否有需要的模型可以下,模型目前不是太全

系列文章

第一篇-ChatGLM-webui-Windows安装部署-CPU版
第二篇-二手工作站配置
第三篇-Tesla P40+CentOS-7+CUDA 11.7 部署实践
第四篇-Miniconda3-CentOS7-安装
第五篇-ChatGLM2-6B|ChatGLM3-6B模型下载
第六篇-ChatGLM2-6B-CentOS安装部署-GPU版

  • 11
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值