多张卡部署一个codellama实例

模型推理过程

使用Transformers框架进行文本生成类任务会经过以下步骤:

  • 加载预训练模型和tokenizer
    主要涉及到网络传输(下载模型参数)、解压缩以及模型参数的初始化,这些过程通常是在 CPU 上执行

  • 文本编码
    对输入文本进行分词、转换为 token ID,并最终将 token ID 转换为 PyTorch 张量。这个过程不涉及模型参数的加载,也不需要进行模型的推理或训练,因此不需要 GPU 资源。

  • 生成文本
    将模型参数需要加载到 GPU 的显存中,把编码后的输入文本作为输入得到输出项,一般会经过以下几个步骤:

  1. 模型推理: 将编码后的输入文本输入到预训练的语言模型中。模型会根据输入文本的上下文信息,预测下一个 token 的概率分布。这个过程通常是在模型的前向传播中完成的。
  2. 采样下一个 token: 根据模型预测的概率分布,从候选 token 中采样一个作为下一个 token。常见的采样方法包括贪婪采样、随机采样和核采样等。
  3. 更新输入文本: 将新采样的 token 添加到输入文本末尾,并丢弃最早的 token,形成新的输入文本序列。
  4. 重复步骤 2-4: 重复进行模型推理和采样,直到生成了指定长度的文本或满足停止条件。
  • 解码
    将生成的 token IDs 解码成文本字符串(人类可读的文本),即生成的文本。

以下是一个文本生成模型的代码示例:

from transformers import AutoModelForCausalLM, AutoTokenizer

# 加载预训练模型和 tokenizer
model_name = "gpt2"
model = AutoModelForCausalLM.from_pretrained(model_name, trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# 从模型中生成文本
input_text = "Once upon a time,"
input_ids = tokenizer(input_text, return_tensors="pt").input_ids
outputs = model.generate(input_ids)

# 将生成的文本解码为人类可读的文本
generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(generated_text)

模型Layer

在深度学习中,模型通常由多个层(或称为模块)组成,每个层执行特定的功能,并且它们以一种有序的方式连接在一起,构成了整个模型。不同类型的模型可能由不同种类的层组成,每个层都有其特定的功能和作用。

以下是一些常见的模型层及其功能的示例:

  1. 输入层(Input Layer):输入层负责接收原始输入数据,并将其转换为模型可以处理的张量格式。在自然语言处理任务中,输入层通常由词嵌入层组成,用于将文本数据编码成词嵌入向量。

  2. 卷积层(Convolutional Layer):卷积层主要用于处理图像数据,通过卷积操作提取图像的特征。在卷积神经网络(CNN)中,通常会包含多个卷积层,每个卷积层会对输入进行不同尺寸和数量的卷积操作。

  3. 循环层(Recurrent Layer):循环层用于处理序列数据,具有记忆功能,能够捕捉序列数据中的时序信息。循环神经网络(RNN)和长短期记忆网络(LSTM)是常见的循环层结构。

  4. 注意力层(Attention Layer):注意力层用于处理序列数据或序列-序列数据,能够动态地计算输入序列中各个位置的重要性,并将注意力权重应用于相应的位置。Transformer 模型中的自注意力机制就是一种常见的注意力层。

  5. 全连接层(Fully Connected Layer):全连接层通常位于神经网络的最后几层,用于将模型提取的特征映射到最终的输出空间。在分类任务中,全连接层通常用于将特征向量映射到类别概率分布。

  6. 输出层(Output Layer):输出层负责生成模型的最终输出,通常根据任务的不同,输出层可能采用不同的激活函数和损失函数。在分类任务中,输出层通常采用 softmax 激活函数生成类别概率分布。

可以使用以下代码查看某个模型的Layer分布

for name, module in model.named_modules():
    print(f"模块名称: {name}, 模块对象: {module}")

将Layer分配到不同的显卡上进行计算。每个显卡只负责计算模型的一部分,可以解决单个显卡内存不足的问题。

Layer分散到多卡推理

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, LlamaForCausalLM
from accelerate import dispatch_model
from accelerate.utils import get_balanced_memory, infer_auto_device_map

model_name = "codellama/CodeLlama-7b-Instruct-hf"
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(model_name, trust_remote_code=True)

no_split_module_classes = LlamaForCausalLM._no_split_modules
max_memory = {1: '5GiB', 2: '5GiB', 3: '7GiB'}
device_map = infer_auto_device_map(model, max_memory=max_memory, no_split_module_classes=no_split_module_classes)
print(device_map)
model = dispatch_model(model, device_map=device_map, offload_dir="tmp")

input_text = "def function("
input_ids = tokenizer(input_text, return_tensors="pt").input_ids.cuda()

# 生成文本
outputs = model.generate(input_ids, max_length=100)

# 将生成的文本解码为人类可读的文本
generated_texts = [tokenizer.decode(output, skip_special_tokens=True) for output in outputs]
print(generated_texts)
  • 6
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
《智能卡批量自动发卡系统》 《CPU卡演示修改系统》 《IC卡交易演示系统》 你可以联系我免费要授权号码 注意:如果软件打不开,出现mfc100.dll错误,是你电脑环境不对,,要先安装一个 vcredist_x86_2010.exe的软件。 -------------------------------------------------------------------------------------------------- 批量发卡加密的绿色工具,看你有兴趣没,速度非常快,放上卡就好了 1000张卡最多半小时发完,可以自动写卡的顺序数据编号 ,特别适合“捷顺停车卡”,我发了个测试版的你试用一下,需要正式版本的可以找我联系,效率非常高,写好了有提示声音,,这个版本是可以在读卡器ACR122U上面兼容可以用的 你联系我要授权号码,主群 95952797共享了 使用批量方法: 1.点加载设备 2.输入原始密码一般6个FF,填自己的A/B新密码 , 3.钩选扇区,填卡序号一般为0 4.点加载密钥 5.点自动批量发卡 群共享了,有兴趣的速度,绝对是卡厂的优秀工具 ,你可以把密码加密成FF测试,速度还可以调 技术联系: 869375852 商业:[email protected] -------------------------------------------------------------------------------------------------- 试用版本使用方法: 首先跟我要授权号码或软件。打开我发你的软件 “ M1智能卡授权卡控制器” ,准备ACR122U读卡器并放一个空白的卡,点“加载连接”----“格式化卡扇区”,,如果没有报错,那就是控制卡做好了。 ************************************************ 再打开群共享的 “正雍科技智能卡批量自动发卡系统试用版本” 点“加载连接”---再输入自己的A/B密码 ,原始密码一般是6个FF。输入卡序号可以是0(或你自己想开始编号的号码),密码和编号都写好了 ---- 点“加载密码”。----点“自动批量发卡”。。。就可以了。 卡写对了,编号会加1,发好卡了会提示声音,界面提示加密成功了。 如果你选的那个扇区已经加密过的卡是不会再发卡的,编号不会加1。卡写好了设备会提示大叫一声的,,放卡声音小一些,, CPU智能卡COS/金融POS机/智能卡读写器/IC卡应用设计开发 按需设计生产,提供OEM,ODM 智能CPU卡COS,封装双界面或非接方式,主要用在建设部/卫生部,电子钱包应用,带COS系统,通过银行卡检测中心PBOC 2.0认证,提供应用DEM,POS机/IC卡应用设计开发.另:提供全套智能卡读写器方案,金融COS,金融应用系统等,按需设计生产,提供OEM,ODM,智能卡应用设计开发 --------------------------------------------------------------------------------------------------- IC卡复制,充值,卡数据备份,解密等,一卡一密也可以 ,全加密也可以。一卡一密加密发卡,,一卡一密解密 MiFare IC卡 复制,,解密,,写卡,,写UID ,,擦卡

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值