transformers 模型保存缓存 win10

该博客介绍了如何利用transformers库缓存预训练模型,如BERT,以便离线使用。内容包括指定缓存目录、下载与加载模型、序列化与反序列化操作,以及如何进行序列分类任务的微调。此外,还提供了微调模型的脚本示例。
摘要由CSDN通过智能技术生成

transformers包缓存模型

from transformers import AutoTokenizer, TFAutoModel

tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased",cache_dir='D://xx//transformermodel')# 模型会下载到这个文件夹下
model = TFAutoModel.from_pretrained("bert-base-uncased",cache_dir='D://xx//transformermodel')

inputs = tokenizer("Hello world!", return_tensors="tf")
outputs = model(**inputs)

修改文件名字可以不联网使用模型

在这里插入图片描述
在这里插入图片描述

下载模型

from transformers import BertTokenizer
tokenizer = BertTokenizer.from_pretrained("bert-base-cased",cache_dir='./transformermodel/BertTokenizer')
sequence = "A Titan RTX has 24GB of VRAM"
tokenized_sequence = tokenizer.tokenize(sequence)# 分词
print(tokenized_sequence)
# 编码
inputs = tokenizer(sequence)
encoded_sequence = inputs["input_ids"]# input_ids,token_type_ids,attention_mask
print(encoded_sequence)
# 解码
decoded_sequence = tokenizer.decode(encoded_sequence)
print(decoded_sequence)

加载缓存

from transformers import BertTokenizer
tokenizer = BertTokenizer.from_pretrained('./transformermodel/BertTokenizer')
sequence = "A Titan RTX has 24GB of VRAM"
tokenized_sequence = tokenizer.tokenize(sequence)# 分词
print(tokenized_sequence)
# 编码
inputs = tokenizer(sequence)
encoded_sequence = inputs["input_ids"]# input_ids,token_type_ids,attention_mask
print(encoded_sequence)
# 解码
decoded_sequence = tokenizer.decode(encoded_sequence)
print(decoded_sequence)

微调模型

examples包下的run_xx.py脚本是微调脚本

序列分类

微调脚本

run_glue.py, run_tf_glue.py, run_tf_text_classification.py or run_xnli.py scripts.
  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值