如何下载和在本地使用Bert预训练模型

bert 预训练模型的下载有许多方式,比如从github官网上下载(官网下载的是tensorflow版本的),还可以从源码中找到下载链接,然后手动下载,最后还可以从huggingface中下载。

关于huggingface的介绍可以看这个:Huggingface简介及BERT代码浅析

huggingface下载预训练模型的地址:https://huggingface.co/models

点进去是这样的:

在这里插入图片描述

如果你想使用 bert-base-uncased 那么第一个就是,如果想使用别的预训练模型,还可以在搜索框中搜索。

以下载 bert-base-uncased 为例:

首先点击搜索框下面第一个链接,来到这个页面:

在这里插入图片描述

点击箭头所指位置,来到下载页面:

在这里插入图片描述

我看到评论区有好多找不到下载位置的人

补充一张图:

请添加图片描述

有pytorch、tensorflow、rust三种语言的预训练模型,选择自己需要的下载即可,其他的还有配置文件,以及词库文件等等。

使用方法,以pytorch为例:

将下载好的文件放到一个目录里面,比如 bert-base-uncased ,然后用以下代码测试:

from transformers import BertModel,BertTokenizer

BERT_PATH = './bert-base-uncased'

tokenizer = BertTokenizer.from_pretrained(BERT_PATH)

print(tokenizer.tokenize('I have a good time, thank you.'))

bert = BertModel.from_pretrained(BERT_PATH)

print('load bert model over')

输出:

['i', 'have', 'a', 'good', 'time', ',', 'thank', 'you', '.']
load bert model over

证明可以正常使用。

  • 64
    点赞
  • 194
    收藏
    觉得还不错? 一键收藏
  • 32
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 32
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值