全参数finetune Ziya-LLaMA-13B相关模型,目前支持数据并行+张量并行+ZeRO

全参数Finetune

这个示例主要用于全参数finetune Ziya-LLaMA-13B相关模型,目前支持数据并行+张量并行+ZeRO

step0 环境安装

git clone git@github.com:IDEA-CCNL/Fengshenbang-LM.git
cd Fengshenbang-LM/
pip install --edit .

step1 下载示例数据

Ziya-Finetune-Small,后续按照格式替换成自己的数据,目前代码直接用文件读取,非datasets读取,所以建议git clone下来然后在配置里引用对应的数据路径

git lfs install
git clone https://huggingface.co/datasets/IDEA-CCNL/Ziya-Finetune-Small

step2 准备模型

Ziya-LLaMA-13B-Pretrain-v1为例,因为开源的是delta参数的模型,首先按照指引合并模型,得到一个llama13b_hf的文件夹

step3 将huggingface模型转化成fengshen的格式

需要自己指定convert_llama13b_to_fs.sh内地址

cd fengshen/examples/ziya_llama
sh convert_llama13b_to_fs.sh

step4 请按照自己机器的显存大小进行tensor并行切分

这里提供两个跑起来的示例供参考

  1. 使用 3*8=24张 3090(24GB),需要进行张量并行,Tensor parallesim = 8,这里需要手动进行模型转换
sh convert_llama13b_tp8.sh
  1. 使用 1*8=8张 A100(80GB),不需要进行张量并行,Tensor parallesim = 1,这里不需要再进行模型转换

step5 根据step4的两种配置分别进行训练

分别参考下面的脚本(这里采用slurm作为调度系统,如果没有,单机多卡训练去掉srun进行训练,多机多卡训练参考torchrun进行训练)

# 用8张80GB A100进行微调
sh finetune_no_tp.sh
# 用24张24GB 3090进行微调
sh finetune_tp.sh

训练loss曲线可以在封神榜公开的wandb项目查看 ziya_llama13b_finetune_example

step6 验证微调后的生成效果

例如针对finetune_no_tp.sh微调出来的模型,验证生成效果,参考下面的脚本

sh generate_no_tp.sh
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值