transformers下载模型并引用

下载代码

from huggingface_hub import snapshot_download
# 下载模型到当前目录下
snapshot_download(repo_id="bert-base-chinese",cache_dir=".")

用cmd以管理员身份运行代码(没有管理员身份会报错)
在这里插入图片描述

引用模型

在这里插入图片描述

from transformers import AutoTokenizer, AutoModelForMaskedLM, pipeline

tokenizer = AutoTokenizer.from_pretrained(pretrained_model_name_or_path=r"models--bert-base-chinese\snapshots\38fda776740d17609554e879e3ac7b9837bdb5ee")

model = AutoModelForMaskedLM.from_pretrained("bert-base-chinese")
en2zh = pipeline("fill-mask", model=model, tokenizer=tokenizer)

print(en2zh("不要[MASK]我。")[0]['sequence'])
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用huggingface下载模型的方法有两种。一种是使用`from_pretrained`方法,它会自动将模型存放在特定的位置。比如,你可以使用以下代码: ``` from transformers import AutoModel model = AutoModel.from_pretrained("username/your-model-name") ``` 其中,`username/your-model-name`是你要下载模型的名称。这种方法会将模型存放在默认的位置:`~/.cache/huggingface/hub/models`。 另一种方法是使用git clone命令来下载模型。你可以使用以下命令下载bert-base-uncased模型: ``` git clone https://huggingface.co/bert-base-uncased ``` 这将会以git的方式将模型下载到当前目录下的`bert-base-uncased`文件夹中。 另外,早些时候下载huggingface上的模型时,人们通常使用类似以下脚本的方式进行下载: ``` from transformers import AutoTokenizer, AutoModelForMaskedLM tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased") model = AutoModelForMaskedLM.from_pretrained("bert-base-uncased") ``` 这种方法与使用`from_pretrained`方法类似,只是将tokenizer和model分别初始化。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [huggingface 下载模型方法与位置(linux服务器)](https://blog.csdn.net/frontiers/article/details/130776853)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [下载huggingface上模型的正确姿势](https://blog.csdn.net/ljp1919/article/details/125977360)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值