Transformers 加载预训练模型 | 七

本文介绍了如何加载Google AI、OpenAI的预训练模型或PyTorch转储的模型,包括不同模型的快捷名称、参数量和适用场景。通过tokenizer和模型类实例化,可以实现权重的加载和缓存,便于后续使用。
摘要由CSDN通过智能技术生成

作者|huggingface 编译|VK 来源|Github

加载Google AI或OpenAI预训练权重或PyTorch转储

from_pretrained()方法

要加载Google AI、OpenAI的预训练模型或PyTorch保存的模型(用torch.save()保存的BertForPreTraining实例),PyTorch模型类和tokenizer可以被from_pretrained()实例化:

model = BERT_CLASS.from_pretrained(PRE_TRAINED_MODEL_NAME_OR_PATH, cache_dir=None, from_tf=False, state_dict=None, *input, **kwargs)

其中

  • BERT_CLASS要么是用于加载词汇表的tokenizer(BertTokenizerOpenAIGPTTokenizer类),要么是加载八个BERT或三个OpenAI GPT PyTorch模型类之一(用于加载预训练权重):BertModelBertForMaskedLMBertForNextSentencePredictionBertForPreTrainingBertForSequenceClassificationBertForTokenClassificationBertForMultipleChoiceBertForQuestionAnsweringOpenAIGPTModelOpenAIGPTLMHeadModelOpenAIGPTDoubleHeadsModel

  • PRE_TRAINED_MODEL_NAME_OR_PATH为:

    • Google AI或OpenAI的预定义的快捷名称列表,其中的模型都是已经训练好的模型:

      • bert-base-uncased:12个层,768个隐藏节点,12个heads,110M参数量。
      • bert-large-uncased:24个层,1024个隐藏节点,16个heads,340M参数量。
      • bert-base-cased:12个层,768个隐藏节点,12个heads,110M参数量。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值