预训练模型下载

文章介绍了如何使用HuggingFaceTransformers库中的`AutoModelForCausalLM.from_pretrained`方法加载预训练语言模型,包括设置如模型路径、内存优化选项(如8位精度存储)、分布式计算中的`device_map`以及与TensorFlow模型兼容的选项。还提及了如何随机抽取列表元素的示例。
摘要由CSDN通过智能技术生成

AutoModelForCausalLM.from_pretrained

AutoModelForCausalLM.from_pretrained 方法是用于从预训练模型加载一个自回归语言模型的快捷方式
• model_path - 模型地址,原生的读取 Baichuan 即可,Lora 读取训练得到的 weights 下的地址

• load_in_8bit - 设置为 True 时,预训练模型的权重参数会以更低的精度 [8位] 进行存储,从而减少了模型所需的内存空间。

• trust_remote_code - 该参数指示系统在执行远程或外部代码时如何处理安全性和信任性。

• device_map - 在分布式计算环境中,可以使用 “device_map” 参数将不同的任务分配给不同的计算节点或处理器,并利用并行计算来加速整体计算过程。这里使用 auto 自定选择

from transformers import AutoModelForCausalLM
 
# 从预训练模型加载自回归语言模型
model = AutoModelForCausalLM.from_pretrained(
    "gpt2",
    cache_dir="/HDD/liuyuanyuan/Pre_model/cache/",#缓存地址
    from_tf=False,
    force_download=False,
    resume_download=True,
    use_auth_token=False
)

• pretrained_model_name_or_path - 指定要加载的预训练模型的名称或路径。

• config - 可选参数,可以传递一个预训练模型的配置对象(如GPTConfig)。如果没有提供,将自动从pretrained_model_name_or_path中加载。

• cache_dir - 可选参数,用于指定缓存目录地址。

• from_tf - 可选参数,如果设置为True,则从TensorFlow模型转换而来。

• force_download - 可选参数,如果设置为True,则强制从模型Hub下载模型。

• resume_download - 可选参数,如果设置为True,则在下载过程中断后继续下载。

• user_auth_token - 可选参数,如果设置为True,并且你的Hugging Face账户已经配置了token,那么将使用token进行认证。

random.randint

random.sample()函数从一个列表里随机抽出若干个元素,这是直接从元素本身中抽取。而如果需要根据列表元素的index来抽取元素,则可以用random.randint(0,len(some_list)-1),即选出了要抽取元素在原list中的index。举例如下:

import random

letters = ['a', 'b', 'c', 'd', 'e', 'f']
random_index = random.randint(0,len(letters)-1)

print(letters[random_index])
# output
e
c
f
a
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值