bert中文预训练模型_HFL中文预训练系列模型已接入Transformers平台

70acf23515370c615e013dd304e9d953.png

哈工大讯飞联合实验室(HFL)在前期陆续发布了多个中文预训练模型,目前已成为最受欢迎的中文预训练资源之一。为了进一步方便广大用户的使用,借助Transformers平台可以更加便捷地调用已发布的中文预训练系列模型。

自定义预训练模型

近日,目前NLP领域非常流行的预训练模型工具包Transformers( https://github.com/huggingface/transformers )迎来新版本更新。Transformers工具包研发团队Huggingface在Twitter上发布Transformers v2.2.2已支持上传第三方的预训练模型。

fc668d23bf6c6641a3b44b7c19e59a71.png

快速加载

为了方便广大用户的使用,我们将哈工大讯飞联合实验室发布的所有中文预训练模型上传至Transformers平台。相关模型以及对应的分词器会自动从Transformers平台中下载,确保数据准确无误。在使用Transformers工具包时,仅需在调用时使用如下代码。 对于BERT以及RoBE
  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值