使用Llama-factory微调Llama3教程

一、登录OpenBayes进行注册登录

通过以下链接,新用户注册登录 OpenBayes , 即可获得 四个小时 RTX 4090免费使用时长 !!

注册链接:https://openbayes.com/console/signup?r=zzl99_WBHM

二、创建容器

模型训练=》创建容器=》填写容器名称=》下一步

 

format,png

选择一台4090,2.1-gpu,python-3.10,cudu-12.1,然后执行

三、配置环境

首先需要下载llama-factory源码,执行如下命令

 #下载 
!git clone https://github.com/hiyouga/LLaMA-Factory.git
 

安装所需的模块,可以按需下载

cd LLaMA-Factory
#可选的额外依赖项:metrics、deepspeed、bitsandbytes、vllm、galore、badam、gptq、awq、aqlm、qwen、modelscope、quality
pip install -e .[torch,metrics]

​注意:这里不要加代理

#安装web模块
pip install gradio==4.10
#安装Modelscope
pip install modelscope==1.15.0

四、微调

进入下载好的llama-factory目录,执行以下命令启动web-ui页面

CUDA_VISIBLE_DEVICES=0 GRADIO_SHARE=0 GRADIO_SERVER_PORT=8080 llamafactory-cli webui

启动成功以后可以看到如下的页面

 

format,png

然后访问旁边的API地址,就可以看到llama-factory web-ui的页面了。

 

format,png

第一次进入可能是英文的,可以通过左上角的下拉框切换一下。

然后再模型名称那里选择llama3的模型,例如我这里选的是llama3-8b-chinese-chat的模型,

然后模型路径那里会出来模型在Huging上面对应的id。

拉倒下面点执行就会自动下载模型。

有的时候OpenBayes 会访问huging face超时,所以需要手动下载模型。

没有梯子的话可以去魔搭上面去下载,执行下面的命令

import torch
from modelscope import snapshot_download, AutoModel, AutoTokenizer
import os
#https://huggingface.co/meta-llama
#https://modelscope.cn/search?page=2&search=LLM-Research&type=model
#model_dir = snapshot_download('LLM-Research/Meta-Llama-3-8B-Instruct', cache_dir='/openbayes/home/model', revision='master')
#model_dir = snapshot_download('LLM-Research/Llama3-8B-Chinese-Chat', cache_dir='/openbayes/home/model')
model_dir = snapshot_download('LLM-Research/Meta-Llama-3-8B', cache_dir='/openbayes/home/model')

上面列了多个模型,可以自行选择。后面是模型的存储路径,这个填到上面页面的模型路径那里就可以了。

然后选择一个你要训练的数据集

 

format,png

下面的参数可以自己调整,最后拉到最下面,可以点击预览来查看微调的具体命令。

 

format,png

大体格式如下

llamafactory-cli train \
    --stage sft \
    --do_train True \
    --model_name_or_path /openbayes/home/model/Llama3-8B-Chinese-Chat \
    --preprocessing_num_workers 16 \
    --finetuning_type lora \
    --template llama3 \
    --flash_attn auto \
    --dataset_dir data \
    --dataset huanhuan \
    --cutoff_len 1024 \
    --learning_rate 5e-05 \
    --num_train_epochs 3.0 \
    --max_samples 100000 \
    --per_device_train_batch_size 2 \
    --gradient_accumulation_steps 8 \
    --lr_scheduler_type cosine \
    --max_grad_norm 1.0 \
    --logging_steps 5 \
    --save_steps 100 \
    --warmup_steps 0 \
    --optim adamw_torch \
    --packing False \
    --report_to none \
    --output_dir saves/LLaMA3-8B-Chinese-Chat/lora/train_2024-06-21-09-35-29 \
    --fp16 True \
    --plot_loss True \
    --ddp_timeout 180000000 \
    --include_num_input_tokens_seen True \
    --lora_rank 8 \
    --lora_alpha 16 \
    --lora_dropout 0 \
    --lora_target all

看下没有问题的话,点击开始就能开始训练了

开始训练以后,可以实时在左侧查看训练的进度以及loss的情况

 

format,png

总结

在环境配好的情况下,使用llama-factory还是很容易的。而OpenBayes提供了一个基础的配置环境,开箱即用,就目前使用来看,个人体验很友好。

 

 

  • 5
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Llama-factory是一个由利马养殖而来的工厂。利马作为一种动物在许多地方被用于毛和肉制品的生产。利马的毛是非常珍贵和高质量的,可以用于制作织物、毛线和毛毯等。因此,利马养殖业成为了一个潜力巨大和有利可图的行业。 Llama-factory的主要目标是通过高效率和可持续的生产方式,生产出高质量的利马制品。工厂采用先进的技术和设备,提高生产效率和产品质量。同时,为了保护环境和动物福利,工厂也将注重科学农业和动物养殖实践。 工厂保证了从利马养殖到制品加工的全过程的可追溯性和质量控制。优质利马毛的选择、剪切和加工过程严格按照标准操作规程进行,确保最终产品的优质和安全。 Llama-factory还将致力于产品的创新和市场开拓。除了传统的利马制品,如毛线和毛毯,工厂还会开发出更多样化的产品,如利马织物和时尚配饰。通过与设计师和品牌的合作,工厂将推出独特且具有竞争力的产品,满足不同消费者的需求。 同时,Llama-factory也将关注社会责任和可持续发展。工厂将积极参与当地社区的福利和环保项目,为地方经济和环境的改善做出贡献。 总之,Llama-factory将在利马养殖和产品制造领域发挥重要作用。通过高质量的利马制品和可持续的生产方式,工厂将为消费者提供优质的产品,同时为当地社区和环境做出积极贡献。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值