【大模型系列 06】LLaMA-7B/13B for PyTorch 昇腾迁移

源码链接

https://gitee.com/ascend/ModelZoo-PyTorch/tree/master/PyTorch/built-in/foundation/LLaMA-13B

LLaMA-7B/13B for PyTorch

概述

简述

LLaMA是由Meta AI发布的大语言系列模型,完整的名字是Large Language Model Meta
AI。LLaMA按照参数量的大小分为四个型号:LLaMA-7B、LLaMA-13B、LLaMA-30B与LLaMA-65B。LLaMA
模型的效果极好,LLaMA-13B在大多数基准测试中的表现都优于GPT-3(175B
),且无需使用专门的数据集,只使用公开可用的数据集即可至训练至最优。本工程基于FastChat仓,主要聚焦于LLaMA-7B/13B模型。

  • 参考实现:

    url=https://github.com/lm-sys/FastChat.git
    commit_id=76f0424d1add61aadc8e5bdeed5ebe540f266ba3
    
  • 适配昇腾 AI 处理器的实现:

    url=https://gitee.com/ascend/ModelZoo-PyTorch.git
    code_path=PyTorch/built-in/foundation
    

准备训练环境

准备环境

默认配置需要每张卡有60G以上空闲内存。

  • 当前模型支持的 PyTorch 版本和已知三方库依赖如下表所示。

    表 1 版本支持表

    Torch_Version三方库依赖版本
    PyTorch 1.11deepspeed 0.6.0
  • 环境准备指导

    请参考《Pytorch框架训练环境准备》。

  • 安装依赖

    在模型源码包根目录下执行以下命令,安装依赖。

    pip3 install --upgrade pip
    pip3 install einops sympy regex decorator scipy setuptools scm prompt toolkit
    
  • 编译安装fschat

    在模型源码包根目录下执行命令,安装fachat库。

    pip3 install -e.
    
  • 安装deepspeed及对应deepspeed_npu插件。

    在模型源码包根目录下执行以下命令,安装deepspeed。

    pip3 install deepspeed==0.6.0 
    git clone https://gitee.com/ascend/DeepSpeed.git
    cd DeepSpeed
    python setup.py develop
    

    使用whereis命令查看deepspeed安装路径/path/to/deepspeed/bin/deepspeed
    ,并将deepspeed_npu包导入。

    打开"/path/to/deepspeed/bin/deepspeed"文件。

    vim /path/to/deepspeed/bin/deepspeed
    

    按“i”进入编辑模式,在“/path/to/deepspeed/bin/deepspeed”中增加以下内容。

    import deepspeed_npu
    
    

    按“ESC”键,输入:wq!,按“Enter”保存并退出编辑。

  • 替换transformers库中相关文件

    将源码包根目录下transformers_modify文件夹中的各个文件分别替换到transformers
    安装目录下的对应位置(基于transformers 4.28.1版本):

    training_args.py -> transformers/training_args.pu
    trainer.py -> transformers/trainer.py
    versions.py -> utils/versions.py
    modeling_llama.py -> transformers/models/llama/modeling_llama.py
    
  • 安装pdsh(多机训练需要)

    deepspeed的多机训练需要安装pdsh,下载链接:https://github.com/chaos/pdsh/releases/download/pdsh-2.34/pdsh-2.34.tar.gz.

    安装方法如下:

    chmod 777 configure
    ./configure --with-ssh --build=arm-linux
    make
    make install
    

准备数据集

  1. 获取数据集

    该任务以基于gpt3问答的数据集进行finetuning训练。

    以alpaca-data-conversation数据集为例,数据集结构参考如下所示。

    [
       {
         "id": "1",
         "conversations": [
           {
             "from": "human",
             "value": "Below is an instruction that describes a task. Write a response that appropriately completes the request.\n\n### Instruction:\nGive three tips for staying healthy.\n\n### Response:"
           },
           {
             "from": "gpt",
             "value": "1.Eat a balanced diet and make sure to include plenty of fruits and vegetables. \n2. Exercise regularly to keep your body active and strong. \n3. Get enough sleep and maintain a consistent sleep schedule."
           }
         ]
       },
       {
         "id": "2",
         "conversations": [
           {
             "from": "human",
             "value": "Below is an instruction that describes a task. Write a response that appropriately completes the request.\n\n### Instruction:\nWhat are the three primary colors?\n\n### Response:"
           },
           {
             "from": "gpt",
             "value": "The three primary colors are red, blue, and yellow."
           }
         ]
       },
       ...
    

    说明:
    该数据集的训练过程脚本只作为一种参考示例。

  2. 数据预处理

    基于上述格式的数据集无需预处理即可训练,若为其他对话数据集,则需修改为上述格式。

获取预训练模型

参考链接:原始仓库上的README.md

Vicuna预训练参数介绍

Vicuna预训练参数以增量权重的形式发布,以符合LLaMA模型的license。用户可以通过将该增量权重叠加到
LLaMA原始权重上实现来使用,主要分为如下两步:

  1. 通过该链接获取huggingface形式的llama原始模型参数;
  2. 使用下面步骤获取Vicuna增量权重,它会自动从huggingface上下载增量权重;
Vicuna-7B

在源码包根目录下执行下列命令获得7B预训练模型(下载7B预训练模型大概需要占用30GB的CPU RAM空间)。

python3 -m fastchat.model.apply_delta \
--base-model-path /path/to/llama-7b \
--target-model-path /output/path/to/vicuna-7b \
--delta-path lmsys/vicuna-7b-delta-v1.1
Vicuna-13B

在源码包根目录下执行下列命令获得13B预训练模型(下载7B预训练模型大概需要占用60GB的CPU RAM空间)。

python3 -m fastchat.model.apply_delta \
--base-model-path /path/to/llama-13b \
--target-model-path /output/path/to/vicuna-13b \
--delta-path lmsys/vicuna-13b-delta-v1.1

下载完毕后,可以在源码包根目录下找到对应的预训练参数文件夹。

开始训练

训练模型

  1. 进入解压后的源码包根目录。

    cd /${模型文件夹名称} 
    
  2. 运行训练脚本。

    该模型支持单机8卡训练和双机16卡训练。

    • 将数据集置于源码包根目录下playground/data文件夹内(若路径不存在请用户自行创建)。

    • 单机八卡训练(LLaMA-7B)

      bash ./7B_finetune.sh    
      
    • 双机16卡训练(LLaMA-13B)

      bash ./13B_finetune.sh  
      

    模型训练脚本参数说明如下。

     --model_name_or_path                       // 预训练参数路径 
     --data_path                                // 数据集路径 
     --fp16                                     // 参数使用fp16保存
     --num_train_epochs                         // 训练epoch数
     --per_device_train_batch_size              // 每张卡上的训练batch size
     --per_device_eval_batch_size               // 每张卡上的评估batch size
     --gradient_accumulation_steps              // 梯度累积的步数
     --evaluation_strategy                      // 评估策略
     --save_strategy                            // ckpt保存策略
     --save_steps                               // ckpt保存间隔步数
     --save_total_limit                         // ckpt最大保存数量
     --learning_rate                            // 学习率
     --weight_decay                             // weight decay策略 
     --warmup_ratio                             // warmup步数的比例
     --lr_scheduler_type                        // 学习率衰减方式
     --logging_steps                            // 训练日志打印间隔步数
     --tf32 False                               // 使用tf32训练,npu暂不支持  
     --model_max_length                         // 模型训练的sequence length
     --gradient_checkpointing                   // 是否开启重计算 
     --deepspeed                                // deepspeed配置脚本路径
    

    deepspeed参数说明如下。

     --fp16                                     // 混合精度训练相关配置 
     --optimizer                                // 优化器相关配置
     --zero_optimization                        // zero优化器相关配置
     --gradient_accumulation_steps              // 梯度累积步数
     --gradient_clipping                        // 梯度裁剪
     --train_batch_size                         // 训练batch size
     --train_micro_batch_size_per_gpu           // 训练micro batch size
    
    

    训练完成后,权重文件保存在output_dir下,并输出模型训练精度和性能信息。

训练结果展示

表 2 训练结果展示表

NAMEAcc@1FPS(tokens/s/p)EpochsZero_Type
7B-竞品A-24523zero1
7B-NPU-29903zero1
13B-竞品A-13863zero2
13B-NPU-14983zero2

模型推理

支持模型

  • Vicuna,LLaMA

执行推理

执行下列命令以完成模型推理(基于单NPU,推理13B模型大约需要28GB显存,推理7B模型大约需要14G显存)。

python3 -m fastchat.serve.cli --model-path path/to/FastChat/7B-vicuna --num-gpus 1
python3 -m fastchat.serve.cli --model-path path/to/FastChat/13B-vicuna --num-gpus 1

版本说明

变更

2023.07.05 首次发布。

FAQ

无。

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
llama-2-13b-chat是一个软件应用程序,可以通过下载安装在手机或电脑上使用。它是一个以聊天为核心的应用,用户可以通过它与朋友、家人或同事进行文字、语音或视频的实时交流。 通过下载llama-2-13b-chat,用户可以享受到以下几个方面的好处。首先,它提供了一种方便快捷的交流方式,无论是发送简单的文字信息,还是进行面对面的视频通话,都能轻松实现。这对于需要频繁交流的工作团队或远距离的亲友来说特别有用。 其次,llama-2-13b-chat提供了一系列的聊天工具和功能,使用户能够更丰富多样地表达自己。例如,它支持发送表情、贴图、图片和语音消息等,这样用户可以更生动地传达自己的情感和意图。 此外,llama-2-13b-chat还具备一定的安全性和隐私保护机制。它采用了先进的加密技术,确保用户的聊天内容不会被未授权的人获取。同时,用户可以根据自己的需求设置隐私选项,例如控制谁可以添加他们为好友、接收消息的通知等。 最后,下载llama-2-13b-chat还能享受到它的更新和改进带来的新功能和体验。开发商会不断改进和优化该应用,修复漏洞,增加新功能,以提供更好的使用体验。 总之,llama-2-13b-chat是一款功能丰富且方便实用的聊天应用,通过下载安装它,用户可以享受到便捷的交流方式,丰富的表达方式,以及安全保护和不断更新的好处。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值