linux服务器连接不上huggingface的解决办法(以及本地下载huggingface模型流程)
本地下载huggingface模型的办法
方法一:使用huggingface_hub库下载
先安装huggingface_hub
库:
pip install huggingface_hub
之后运行:
from huggingface_hub import snapshot_download
# 指定模型名称和下载路径
model_name = "bert-base-uncased"
save_path = "./my_local_model"
# 下载模型
snapshot_download(repo_id=model_name, cache_dir=save_path)
但是注意,因为网络问题,需要科学上网才能下载下来.
但是我们可以使用镜像网站,不需要科学上网就能直接下载。
import os
os.environ['HF_ENDPOINT'] = 'https://hf-mirror.com' # 这个镜像网站可能也可以换掉
from huggingface_hub import snapshot_download
snapshot_download(repo_id="google-bert/bert-base-uncased",
local_dir_use_symlinks=False,
local_dir="./google-bert/bert-base-uncased")
离线加载模型
如果你已经下载好了模型,并且希望之后在离线环境中使用这些模型,你可以通过local_files_only=True
参数来确保模型从本地加载,而不是重新联网下载。
model = AutoModel.from_pretrained(model_save_path, local_files_only=True)
tokenizer = AutoTokenizer.from_pretrained(model_save_path, local_files_only=True)
方法二:使用transformers库下载(需要安装pytorch库)
- 首先需要安装好
pytorch
库(AutoModelForSequenceClassification
这个类是基于PyTorch的一个库) - 其次需要安装好Hugging Face 的
transformers
库以及huggingface_hub
库。这两个库可以通过pip
安装:
pip install transformers
pip install huggingface_hub
如果你使用的是Windows和pip,没有合适的GPU,可以安装CPU版本的PyTorch,可以使用以下命令:
pip install torch torchvision torchaudio
pip install transformers
from transformers import AutoTokenizer, AutoModelForSequenceClassification
# 下载模型和分词器
model_name = "bert-base-uncased"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
# 保存模型到本地
model.save_pretrained("./models/bert-base-uncased")
tokenizer