huggingface笔记:LLama 2

1 前提tip

1.1 使用什么数据类型训练模型?

  • Llama2模型是使用bfloat16训练的
    • 上传到Hub的检查点使用torch_dtype = 'float16',这将通过AutoModel API将检查点从torch.float32转换为torch.float16。
    • 在线权重的数据类型通常无关紧要,这是因为模型将首先下载(使用在线检查点的数据类型),然后转换为torch的默认数据类型(变为torch.float32),最后,如果配置中提供了torch_dtype,则会使用它。
  • 不建议在float16中训练模型,因为已知会产生nan;因此,应该在bfloat16中训练模型

1.2 Llama2 的tokenizer

  • LlaMA的tokenizer是基于sentencepiece的BPE模型。
  • sentencepiece的一个特点是,在解码序列时,如果第一个令牌是词的开头(例如“Banana”),令牌器不会在字符串前添加前缀空格。 

2  transformers.LlamaConfig

根据指定的参数实例化LLaMA模型,定义模型架构。使用默认值实例化配置将产生与LLaMA-7B相似的配置

2.1 参数介绍

vocab_size

(int, 可选,默认为32000) — LLaMA模型的词汇量大小。

定义 通过调用LlamaModel时传递的inputs_ids表示的不同令牌的数量。

hidden_size(int, 可选,默认为4096) — 隐藏表示的维度
intermediate_size(int, 可选,默认为11008) — MLP表示的维度
num_hidden_layers (int, 可选,默认为32) — 解码器中的隐藏层数量
num_attention_heads(int, 可选,默认为32) — 解码器中每个注意力层的注意力头数。
hidden_act(str或函数, 可选,默认为"silu") — 解码器中的非线性激活函数
max_position_embeddings

(int, 可选,默认为2048) — 该模型可能使用的最大序列长度。

Llama 1支持最多2048个令牌,Llama 2支持最多4096个,CodeLlama支持最多16384个。

initializer_range(float, 可选,默认为0.02) — 用于初始化所有权重矩阵的截断正态初始化器的标准差
rms_norm_eps(float, 可选,默认为1e-06) — rms归一化层使用的epsilon
use_cache(bool, 可选,默认为True) — 模型是否应返回最后的键/值注意力
pad_token_id(int, 可选) — 填充令牌id
bos_token_id(int, 可选,默认为1) — 开始流令牌id
eos_token_idint, 可选,默认为2) — 结束流令牌id
attention_bias(bool, 可选,默认为False) — 在自注意力过程中的查询、键、值和输出投影层中是否使用偏置
attention_dropout(float, 可选,默认为0.0) — 注意力概率的丢弃率
mlp_bias(bool, 可选,默认为False) — 在MLP层中的up_proj、down_proj和gate_proj层中是否使用偏置

2.2 举例

from transformers import LlamaModel, LlamaConfig


configuration = LlamaConfig()
# 默认是Llama-7B的配置
configuration
'''
LlamaConfig {
  "attention_bias": false,
  "attention_dropout": 0.0,
  "bos_token_id": 1,
  "eos_token_id": 2,
  "hidden_act": "silu",
  "hidden_size": 4096,
  "initializer_range": 0.02,
  "intermediate_size": 11008,
  "max_position_embeddings": 2048,
  "mlp_bias": false,
  "model_type": "llama",
  "num_attention_heads": 32,
  "num_hidden_layers": 32,
  "num_key_value_heads": 32,
  "pretraining_tp": 1,
  "rms_norm_eps": 1e-06,
  "rope_scaling": null,
  "rope_theta": 10000.0,
  "tie_word_embeddings": false,
  "transformers_version": "4.41.0",
  "use_cache": true,
  "vocab_size": 32000
}
'''

3 transformers.LlamaTokenizer 

构建一个Llama令牌器。基于字节级Byte-Pair-Encoding。

默认的填充令牌未设置,因为原始模型中没有填充令牌。

3.1 参数介绍

vocab_file(str) — 词汇文件的路径
unk_token

(str或tokenizers.AddedToken, 可选, 默认为"<unk>") — 未知令牌。

不在词汇表中的令牌将被设置为此令牌。

bos_token

(str或tokenizers.AddedToken, 可选, 默认为"<s>") — 预训练期间使用的序列开始令牌。

可以用作序列分类器令牌

eos_token

(str或tokenizers.AddedToken, 可选, 默认为"</s>") — 序列结束令牌

pad_token

(str或tokenizers.AddedToken, 可选) — 用于使令牌数组大小相同以便批处理的特殊令牌。

在注意力机制或损失计算中将其忽略。

add_bos_token(bool, 可选, 默认为True) — 是否在序列开始处添加bos_token。
add_eos_token(bool, 可选, 默认为False) — 是否在序列结束处添加eos_token。
use_default_system_prompt(bool, 可选, 默认为False) — 是否使用Llama的默认系统提示。

4  transformers.LlamaTokenizerFast

4.1 参数介绍

vocab_file(str) —SentencePiece文件(通常具有.model扩展名),包含实例化分词器所需的词汇表。
tokenizer_file(str, 可选) — 分词器文件(通常具有.json扩展名),包含加载分词器所需的所有内容。
clean_up_tokenization_spaces(bool, 可选, 默认为False) — 解码后是否清理空格,清理包括移除潜在的如额外空格等人工痕迹。
unk_token

(str或tokenizers.AddedToken, 可选, 默认为"<unk>") — 未知令牌。

不在词汇表中的令牌将被设置为此令牌。

bos_token

(str或tokenizers.AddedToken, 可选, 默认为"<s>") — 预训练期间使用的序列开始令牌。

可以用作序列分类器令牌

eos_token

(str或tokenizers.AddedToken, 可选, 默认为"</s>") — 序列结束令牌

pad_token

(str或tokenizers.AddedToken, 可选) — 用于使令牌数组大小相同以便批处理的特殊令牌。

在注意力机制或损失计算中将其忽略。

add_bos_token(bool, 可选, 默认为True) — 是否在序列开始处添加bos_token。
add_eos_token(bool, 可选, 默认为False) — 是否在序列结束处添加eos_token。
use_default_system_prompt(bool, 可选, 默认为False) — 是否使用Llama的默认系统提示。

 4.2 和 LlamaTokenizer的对比

调用from_pretrained从huggingface获取已有的tokenizer时,可以使用AutoTokenizer和LlamaTokenizerFast,不能使用LlamaTokenizer

from transformers import AutoTokenizer

tokenizer1=AutoTokenizer.from_pretrained('meta-llama/Meta-Llama-3-8B')
tokenizer1.encode('Hello world! This is a test file for Llama tokenizer')
#[128000, 9906, 1917, 0, 1115, 374, 264, 1296, 1052, 369, 445, 81101, 47058]


from transformers import LlamaTokenizerFast

tokenizer2=LlamaTokenizerFast.from_pretrained('meta-llama/Meta-Llama-3-8B')
tokenizer2.encode('Hello world! This is a test file for Llama tokenizer')
#[128000, 9906, 1917, 0, 1115, 374, 264, 1296, 1052, 369, 445, 81101, 47058]
from transformers import LlamaTokenizer

tokenizer3=LlamaTokenizer.from_pretrained('meta-llama/Meta-Llama-3-8B')
tokenizer3.encode('Hello world! This is a test file for Llama tokenizer')

5 LlamaModel

5.1 参数介绍

  • config
    • 模型配置类,包含模型的所有参数
    • 使用配置文件初始化不会加载与模型相关的权重,只加载配置
    • 使用from_pretrained() 方法以加载模型权重

5.2 介绍

  • LLaMA 模型的基本形式,输出原始隐藏状态,顶部没有任何特定的头部。
    • 这个模型继承自 PreTrainedModel
    • 此模型也是 PyTorch torch.nn.Module 的子类
  • 解码器包括 config.num_hidden_layers 层。每层是一个 LlamaDecoderLayer

使用前面的LlamaConfig:

from transformers import LlamaModel, LlamaConfig


configuration = LlamaConfig()
# 默认是Llama-7B的配置

model=LlamaModel(configuration)
model
'''
LlamaModel(
  (embed_tokens): Embedding(32000, 4096)
  (layers): ModuleList(
    (0-31): 32 x LlamaDecoderLayer(
      (self_attn): LlamaSdpaAttention(
        (q_proj): Linear(in_features=4096, out_features=4096, bias=False)
        (k_proj): Linear(in_features=4096, out_features=4096, bias=False)
        (v_proj): Linear(in_features=4096, out_features=4096, bias=False)
        (o_proj): Linear(in_features=4096, out_features=4096, bias=False)
        (rotary_emb): LlamaRotaryEmbedding()
      )
      (mlp): LlamaMLP(
        (gate_proj): Linear(in_features=4096, out_features=11008, bias=False)
        (up_proj): Linear(in_features=4096, out_features=11008, bias=False)
        (down_proj): Linear(in_features=11008, out_features=4096, bias=False)
        (act_fn): SiLU()
      )
      (input_layernorm): LlamaRMSNorm()
      (post_attention_layernorm): LlamaRMSNorm()
    )
  )
  (norm): LlamaRMSNorm()
)
'''
model.from_pretrained('meta-llama/Meta-Llama-3-8B')
model
'''
LlamaModel(
  (embed_tokens): Embedding(32000, 4096)
  (layers): ModuleList(
    (0-31): 32 x LlamaDecoderLayer(
      (self_attn): LlamaSdpaAttention(
        (q_proj): Linear(in_features=4096, out_features=4096, bias=False)
        (k_proj): Linear(in_features=4096, out_features=4096, bias=False)
        (v_proj): Linear(in_features=4096, out_features=4096, bias=False)
        (o_proj): Linear(in_features=4096, out_features=4096, bias=False)
        (rotary_emb): LlamaRotaryEmbedding()
      )
      (mlp): LlamaMLP(
        (gate_proj): Linear(in_features=4096, out_features=11008, bias=False)
        (up_proj): Linear(in_features=4096, out_features=11008, bias=False)
        (down_proj): Linear(in_features=11008, out_features=4096, bias=False)
        (act_fn): SiLU()
      )
      (input_layernorm): LlamaRMSNorm()
      (post_attention_layernorm): LlamaRMSNorm()
    )
  )
  (norm): LlamaRMSNorm()
)
'''

5.3 forward方法

参数:

input_ids

torch.LongTensor,形状为 (batch_size, sequence_length))

输入序列token在词汇表中的索引

索引可以通过 AutoTokenizer 获取【PreTrainedTokenizer.encode()】

attention_mask

torch.Tensor,形状为 (batch_size, sequence_length),可选)

避免对填充标记索引执行注意力操作的掩码。

掩码值在 [0, 1] 中选择:

  • 1 表示未被掩盖的标记,
  • 0 表示被掩盖的标记。
inputs_embeds

(torch.FloatTensor,形状为 (batch_size, sequence_length, hidden_size)

选择性地,可以直接传递嵌入表示,而不是传递 input_ids

output_attentions(布尔值,可选)— 是否返回所有注意力层的注意力张量。
output_hidden_states(布尔值,可选)— 是否返回所有层的隐藏状态

5.3.1 举例

prompt = "Hey, are you conscious? Can you talk to me?"
inputs = tokenizer(prompt, return_tensors="pt")


a=m.forward(inputs.input_ids)

a.keys()
#odict_keys(['last_hidden_state', 'past_key_values'])


a.last_hidden_state
'''
tensor([[[ 4.0064, -0.4994, -1.9927,  ..., -3.7454,  0.8413,  2.6989],
         [-1.5624,  0.5211,  0.1731,  ..., -1.5174, -2.2977, -0.3990],
         [-0.7521, -0.4335,  1.0871,  ..., -0.7031, -1.8011,  2.0173],
         ...,
         [-3.5611, -0.2674,  1.7693,  ..., -1.3848, -0.4413, -1.6342],
         [-1.2451,  1.5639,  1.5049,  ...,  0.5092, -1.2059, -2.3104],
         [-3.2812, -2.2462,  1.8884,  ...,  3.7066,  1.2010,  0.2117]]],
       grad_fn=<MulBackward0>)
'''

a.last_hidden_state.shape
#torch.Size([1, 13, 4096])


len(a.past_key_values)
#32


a.past_key_values[1][0].shape
#torch.Size([1, 8, 13, 128])

6 LlamaForCausalLM 

用于对话系统

6.1 forward方法

参数:

input_ids

torch.LongTensor,形状为 (batch_size, sequence_length))

输入序列token在词汇表中的索引

索引可以通过 AutoTokenizer 获取【PreTrainedTokenizer.encode()】

attention_mask

torch.Tensor,形状为 (batch_size, sequence_length),可选)

避免对填充标记索引执行注意力操作的掩码。

掩码值在 [0, 1] 中选择:

  • 1 表示未被掩盖的标记,
  • 0 表示被掩盖的标记。
inputs_embeds

(torch.FloatTensor,形状为 (batch_size, sequence_length, hidden_size)

选择性地,可以直接传递嵌入表示,而不是传递 input_ids

output_attentions(布尔值,可选)— 是否返回所有注意力层的注意力张量。
output_hidden_states(布尔值,可选)— 是否返回所有层的隐藏状态

6.2  举例

from transformers import LlamaForCausalLM

m1=LlamaForCausalLM.from_pretrained('meta-llama/Meta-Llama-3-8B')
m1
'''
LlamaForCausalLM(
  (model): LlamaModel(
    (embed_tokens): Embedding(128256, 4096)
    (layers): ModuleList(
      (0-31): 32 x LlamaDecoderLayer(
        (self_attn): LlamaSdpaAttention(
          (q_proj): Linear(in_features=4096, out_features=4096, bias=False)
          (k_proj): Linear(in_features=4096, out_features=1024, bias=False)
          (v_proj): Linear(in_features=4096, out_features=1024, bias=False)
          (o_proj): Linear(in_features=4096, out_features=4096, bias=False)
          (rotary_emb): LlamaRotaryEmbedding()
        )
        (mlp): LlamaMLP(
          (gate_proj): Linear(in_features=4096, out_features=14336, bias=False)
          (up_proj): Linear(in_features=4096, out_features=14336, bias=False)
          (down_proj): Linear(in_features=14336, out_features=4096, bias=False)
          (act_fn): SiLU()
        )
        (input_layernorm): LlamaRMSNorm()
        (post_attention_layernorm): LlamaRMSNorm()
      )
    )
    (norm): LlamaRMSNorm()
  )
  (lm_head): Linear(in_features=4096, out_features=128256, bias=False)
)
'''

从结构上来说,多了一个lm_head

prompt = "Hey, are you conscious? Can you talk to me?"
inputs = tokenizer(prompt, return_tensors="pt")

tokenizer.batch_decode(m1.generate(inputs.input_ids, max_length=30))
'''
['<|begin_of_text|>Hey, are you conscious? Can you talk to me? Can you hear me? Are you sure you can hear me? Can you understand what']
'''


m1.generate(inputs.input_ids, max_length=30)
'''
tensor([[128000,  19182,     11,    527,    499,  17371,     30,   3053,    499,
           3137,    311,    757,     30,   3053,    499,   6865,    757,     30,
           8886,    499,   2103,  27027,     30,   3053,    499,   1518,    757,
             30,   3053,    499]])
'''

  • 24
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
要下载huggingface上的llama2模型,你需要经过官方的授权。你可以在hugging face的模型页面申请授权,并等待审核通过。审核通过后,你就可以下载模型了。你可以使用脚本的方式进行下载,这样可以更快速地进行下载,并且可以设置密码和代理。具体的实现方法可以参考以下示例代码: ```python from huggingface_hub import snapshot_download repo_id = "meta-llama/Llama-2-7b-hf" # 模型在huggingface上的名称 local_dir = "/home/model_zoo/LLM/llama2/Llama-2-7b-hf/" # 本地模型存储的地址 local_dir_use_symlinks = False # 本地模型使用文件保存,而非blob形式保存 token = "XXX" # 在hugging face上生成的 access token # 如果需要代理的话 proxies = { 'http': 'XXXX', 'https': 'XXXX', } snapshot_download( repo_id=repo_id, local_dir=local_dir, local_dir_use_symlinks=local_dir_use_symlinks, token=token, proxies=proxies ) ``` 请确保将`repo_id`设置为llama2模型在huggingface上的名称,`local_dir`设置为你想要存储模型的本地目录,`token`设置为你在hugging face上生成的access token。如果需要代理,请将`proxies`设置为你的代理。 这样,你就可以使用以上代码来下载llama2模型了。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [如何优雅地下载huggingface上模型,以llama2模型下载为例](https://blog.csdn.net/ljp1919/article/details/131925099)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *3* [LLM-LLaMA:手动模型转换与合并【Step 1: 将原版LLaMA模型转换为HF(HuggingFace)格式;Step 2: 合并LoRA...](https://blog.csdn.net/u013250861/article/details/131387468)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UQI-LIUWJ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值