大模型训练-如何通过modelscope或者hg镜像快速下载LLM大模型文件,配置下载环境路径

43 篇文章 3 订阅
17 篇文章 2 订阅

1

大模型镜像地址:https://aifasthub.com/models/baichuan-inc/Baichuan2-7B-Chat

modelscope:
https://www.modelscope.cn/docs/%E6%A8%A1%E5%9E%8B%E7%9A%84%E4%B8%8B%E8%BD%BD

在这里插入图片描述

wget https://aifasthub.com/models/baichuan-inc/Baichuan2-7B-Chat/pytorch_model.bin?download=true --no-check-certificate

参考:https://developer.aliyun.com/ask/485416

在阿里云计算机视觉中,ModelScope Cache环境变量用于指定缓存模型的路径。当您使用 ModelScope 进行模型推理时,如果本地没有相应的模型文件,则会从缓存中加载模型。因此,设置正确的缓存路径非常重要,以确保您的推理请求能够快速地得到响应。

要设置 ModelScope Cache 环境变量,请按照以下步骤操作:

打开终端或命令提示符窗口。

输入以下命令来设置 ModelScope Cache 环境变量:

export MODELSCOPE_CACHE=/path/to/cache/directory

其中,/path/to/cache/directory 是您希望将模型缓存到的目录路径。请确保该目录已经存在并且具有适当的权限。

保存并关闭命令提示符窗口。
现在,当您使用 ModelScope 进行模型推理时,它将自动从指定的缓存目录中加载模型。如果您需要更改缓存目录,只需重新运行上述命令即可。

2 modelscope下载

from modelscope.models import Model
model = Model.from_pretrained('ZhipuAI/chatglm3-6b', revision='master', trust_remote_code=True)
# revision为可选参数,不指定版本会取模型默认版本,默认版本,默认版本为ModelScope library发布前最后一个版本
# 如何得到发布时间
# import modelscope
# print(modelscope.version.__release_datetime__)
#model = Model.from_pretrained('damo/nlp_structbert_word-segmentation_chinese-base')

在这里插入图片描述

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值