不会修改HuggingFace模型下载默认缓存路径?一篇教会你!

一、缓存路径和缓存文件结构

1.缓存路径

首先,你需要先了解Transformers库对于它默认下载的缓存路径和文件结构,这样能让你更清楚的明白,Transformers库的.cache系统以及如何更改缓存路径。

通过Hugging Face的Transformers库自动下载模型,会先缓存在默认路径:
Linux'~/.cache/huggingface/hub'
WindowsC:\Users\username\.cache\huggingface\hub
缓存的模型文件以哈希值形式储存,文件结构如下:

<CACHE_DIR> # 缓存路径
├─ <MODELS>    # 模型路径
├─ <DATASETS>  # 数据集路径
├─ <SPACES>    # 空间路径

<CACHE_DIR>通常由HF_HOMEHF_HUB_CACHE指定,具体看第二节

2.缓存文件结构

模型,数据集,空间,他们的存放格式如下 :
models/datasets/spaces--模型名称

<CACHE_DIR> 
├─ models--julien-c--EsperBERTo-small
├─ models--lysandrejik--arxiv-nlp
├─ models--bert-base-cased
├─ datasets--glue
├─ datasets--huggingface--DataMeasurementsFiles
├─ spaces--dalle-mini--dalle-mini

其中,不管是modelsdatasets还是spaces,他们子目录的文件结构也一样,如下:

<CACHE_DIR>
├─ datasets--glue
│ 	├─ refs
│ 	├─ blobs
│ 	├─ snapshots
...

refs:是一个指针文件,使用Hugging Face的模型或数据集时,系统会通过检查refs文件夹中的信息,确定是否需要更新本地缓存的文件。
blobs:文件夹包含已下载的实际文件。每个文件的名称就是它们的哈希值。
snapshots:文件夹包含指向上述 blob 的符号链接。它本身由多个文件夹组成:每个已知版本一个!该文件夹中不具有实体属性,是连接到blobs中哈希值文件的连接。通过这种方式创建的框架,实现了文件共享的机制。如果在修订版本bbbbbb中获取的同一个文件具有相同的哈希值,那么该文件就不需要被重新下载。这意味着,即使在不同的修订版本中,只要文件内容没有变化,就可以复用之前下载的文件,避免了不必要的重复下载。
如下图所示,我展示了我blobs文件里的模型文件,他们都自动是以哈希值命名的,我猜是为了防止调用模型是出现重复的情况。
在这里插入图片描述

二、更改Transformers库模型下载的缓存路径的两种方式

方式一:cache_dir 参数

可以通过from_pretrained函数中的 cache_dir 参数来指定,缺点,每次都需要手动指定,比较麻烦。
如:加载一个bert-base-uncased模型

from transformers import AutoTokenizer, AutoModelForMaskedLM
tokenizer = AutoTokenizer.from_pretrained("google-bert/bert-base-uncased",cache_dir="路径")
model = AutoModelForMaskedLM.from_pretrained("google-bert/bert-base-uncased",cache_dir="路径")

方式二:设置环境变量

先了解Shell优先级顺序

  • Shell 环境变量(默认): HUGGINGFACE_HUB_CACHETRANSFORMERS_CACHE
  • Shell 环境变量: HF_HOME
  • Shell 环境变量: XDG_CACHE_HOME + /huggingface
    实际使用中,transformer库首先检查HUGGINGFACE_HUB_CACHE是否被设置,如果没有,再按照上述的优先级顺序检查其他环境变量。

Linux

通过vim编译器永久设置:

vim ~/.bashrc

在末尾行添加:

export HF_HOME="/home/huggingface/hub"

然后保存退出。
输入如下指令让它立即生效:

source ~/.bashrc

可通过如下指令查看是否设置成功,

env | grep HF_HOME

如果返回设置的路径,则成功。如图:Alt

Windows

方法一

打开“控制面板”(可以通过在开始菜单搜索“控制面板”来找到它)。
进入“系统和安全” > “系统” > “高级系统设置”
在出现的“系统属性”窗口中,点击“环境变量”按钮。
“用户变量”“系统变量”区域点击“新建”,然后在“变量名”中输入TRANSFORMERS_CACHE,在“变量值”中输入你想要的缓存目录路径

方法二

使用Windows的命令提示符(CMD)
setx HF_HOME "C:\huggingface\hub"
需要重新打开命令提示符窗口才能生效。

三、清理缓存模型文件

Python你想用的环境中安装:

pip install huggingface_hub["cli"]

然后运行:

huggingface-cli delete-cache #此命令也可以用来查看已经缓存的模型列表。

出现如下图:
缓存查看
比如我图上的:

Model google/flan-t5-xxl (45.1G, used 3 weeks ago)
  ○ ae7c9136: main # modified 3 weeks ago

google/flan-t5-xxl是我下载的模型名称;
45.1G是模型大小;
used 3 weeks ago是最后使用时间;
○ ae7c9136: main 最后修改的版本。

最后选择你想要的操作:

  • 按键盘箭头键 <up>小键盘 ↑ 方向键<down>小键盘 ↓ 方向键 移动光标。
  • <space>(空格键)切换(选择/取消选择)项目,可以多选。
  • <Enter>(回车) 确认您的选择。
  • 如果要取消操作并退出,按<ctrl+c>退出 TUI。

四、保存模型文件

在第一节中,我们展示了Transformers库模型下载后自动缓存的路径,但是这些模型都是以哈希值进行缓存的,我们人类看不懂,所以,如何转化为我们人类看得懂的文件格式呢?
很简单,我们调用transformers库的这个函数就行:
例如:
我首先从transformers库下载模型bigscience/T0_3B到缓存路径。

from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("bigscience/T0_3B")
model = AutoModelForSeq2SeqLM.from_pretrained("bigscience/T0_3B")

然后将缓存的模型保存在到本,采用.save_pretrained方法就行:

tokenizer = AutoTokenizer.from_pretrained("./your/path/bigscience_t0")
model = AutoModel.from_pretrained("./your/path/bigscience_t0")

至此,结束。觉得这篇文章有用的小伙伴可以点赞收藏一下哦。(✧∇✧)

  • 20
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值