如何使用huggingface 预定义的模型 ,gpt2为例子。offline离线使用。

如何使用huggingface 预定义的模型 ,gpt2为例子。

离线使用huggingface 模型,预定义模型。

huggingface 在2023年大放异彩,成为AI开源最活跃的开源网站,前途不可限量。 可以访问它, 看一下

https://huggingface.co/
它提供了大量的预训练模型model,数据集dataset,和别人开发好的应用(space)

安装使用它提供的的环境,参考https://huggingface.co/docs/transformers/installation
英文水平有限的,可以用浏览器提供的翻译功能翻译成中文。

对于中国用户来说, 估计主要才用它的离线方式 offline. 因为好一点的模型文件参数量比较大, 导致文件基本上都大于1G,甚至10G以上, 在线方式访问模型很慢并且失败的概率比较大。 我试了,多数次都是链接失败的,偶尔成功一次小模型 。
上面文档上讲的离线方式, 逻辑不算清楚, 根据我的摸索, 可以采用简单的方法。
举例如下:
如gpt2 https://huggingface.co/gpt2/tree/main

能看到 model card , 是模型说明,通常说明都有如何调用的代码。方便你二次开发。
点file 页面。 看到模型提供的所有可下载的文件。

下载这些文件到你的电脑本地上。 比如,放在 c:\mydoc\model\gp2\ 目录下。 文件比较大,可能下载时间长。
在这里插入图片描述

回到model card 页。找到如何 使用的代码, 把model 的位置改成你下载好的目录!! 一定是目录名, 不是什么文件名。 因为config.json 文件会记录使用模型相关的参数。

from transformers import pipeline, set_seed
generator = pipeline(‘text-generation’, model=‘c:/mydoc/model/gpt2/’)
set_seed(42)
generator(“Hello, I’m a language model,”, max_length=30, num_return_sequences=5)

这样就可以在python 环境(或jupyter notebook)中运行了。

我这里把目录名改成了反斜线 / , 是linux 环境格式。

这种做法, 比文档中说明的清楚多了。 比较简单。

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值