huggingface:transformers使用总结

目录

如何导入huggingface上面的预训练模型?

一.自动导入

二.手动导入

使用 Trainer API 微调模型​​​​​​​


如何导入huggingface上面的预训练模型?

导入huggingface上面的预训练模型有两种方法。

一.自动导入

第一种是指定预训练模型的名称,如'bert-base-chinese',程序会自动从Huggingface上面的下载所需要的文件

from transformers import AutoTokenizer, AutoModel
model = AutoModel.from_pretrained('bert-base-chinese')
tokenizer = AutoTokenizer.from_pretrained('bert-base-chinese')

二.手动导入

  1. 登陆huggingface官网:Hugging Face – The AI community building the future.
  2. 在搜索框输入模型的名字
  3. 下载模型文件

 下载完成后将传入的参数改为模型文件保存的本地路径。

(AutoModel.from_pretrained里面输入的是文件夹的路径,AutoTokenizer.from_pretrained里面输入的是vocab.txt所在文件夹的路径)

model = AutoModel.from_pretrained('./model')
tokenizer = AutoTokenizer.from_pretrained('./model')

使用 Trainer API 微调模型

Traine常用的参数

training_args = TrainingArguments(
    output_dir='./output',  # 模型输出路径
    learning_rate=2e-5,  # 学习率
    per_device_train_batch_size=32,
    per_device_eval_batch_size=128,
    num_train_epochs=5,
    weight_decay=0.01,  # 权重衰减
    logging_dir='./logs',  # 日志保存路径
    logging_steps=10,  # 日志记录的步长(loss,学习率)
    evaluation_strategy="epoch",  # 评估策略为训练完一个epoch之后进行评估
    save_strategy="epoch",  # 保存策略同上
    save_total_limit=3,  # 最多保存数量
    load_best_model_at_end=True,  # 设置训练完成后加载最优模型
    metric_for_best_model="f1",  # 指定最优模型的评估指标为f1
    fp16=True  # 半精度训练(提高训练速度)
)
trainer = Trainer(
    model=model,  # 模型
    args=training_args,
    train_dataset=train_dataset,  # 训练集
    eval_dataset=val_dataset,  # 验证集
    compute_metrics=compute_metrics  # 验证函数
)

然后定义好参数后可以直接使用.train()来启动训练:

trainer.train()

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
HuggingFace提供了一个演示(demo)页面,用于展示他们的Transformers库的功能。这个演示页面可以让用户通过输入文本来测试HuggingFace提供的各类预训练模型。用户可以在演示页面上选择不同的模型和任务,并输入相应的文本,然后观察模型的输出结果。通过这个演示页面,用户可以快速了解和体验HuggingFaceTransformer模型的功能和效果。 在使用HuggingFace演示页面时,首先需要导入HuggingFaceTransformers库,并创建一个Tokenizer对象,用于将输入的文本进行分词和编码。例如,可以使用以下代码创建一个BertTokenizer对象,并加载所需的词表: ``` from transformers import BertTokenizer tokenizer = BertTokenizer.from_pretrained('bert-base-cased') ``` 然后,可以使用创建的Tokenizer对象对输入文本进行编码,并将编码后的文本输入到所选择的模型中进行推理和预测。根据所选择的任务不同,模型的输出结果也会不同。通过这种方式,用户可以在演示页面上实时测试和观察HuggingFace提供的预训练模型在各种任务上的表现。 总结来说,HuggingFace的演示页面提供了一个方便快捷的方式,让用户能够使用HuggingFace提供的预训练模型,并通过输入文本来测试和观察模型的输出结果。这个演示页面对于使用HuggingFaceTransformers库进行自然语言处理任务的开发和实验非常有帮助。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值