最近需要需要下载大模型,因为模型文件比较多,一个个手动下载很繁琐,所以就百度了一下hugging face上模型自动下载的脚本写法,今天终于解决了模型下载总是会出现中断的原因:
#!/usr/bin/env python
# -*- coding: UTF-8 -*-
from huggingface_hub import snapshot_download
repo_id = "BAAI/bge-large-zh" # 模型在huggingface上的名称
local_dir = f"models/base/{repo_id.split('/')[-1]}" # 本地模型存储的地址
local_dir_use_symlinks = False # 本地模型使用文件保存,而非blob形式保存
# 注意:“在hugging face上生成的 自己的access token, 否则模型下载会中断”
token = "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" # 这里需要自己替换,我这个是fake demo
# 开始下载
snapshot_download(
repo_id=repo_id,
local_dir=local_dir,
local_dir_use_symlinks=local_dir_use_symlinks,
token=token,
)
repo_id 是什么?看下图;
token是什么? 看下图:
好了,就到这了,有新的感悟再续写, 哈哈