【自然语言处理与大模型】个人使用LLaMA Factory微调的记录

一、魔塔社区免费服务器如何使用webui微调?

        一上来我就得先记录一下,使用魔塔社区的免费服务器的时候,因为没有提供ssh而导致无法看到webui的遗憾如何解决的问题?

执行命令

如果点这个链接无法弹出微调的webui,则可以在启动webui的命令之前设置了一些环境变量。

CUDA_VISIBLE_DEVICES=0 GRADIO_SHARE=1 GRADIO_SERVER_PORT=7860 llamafactory-cli webui
  • 通过 CUDA_VISIBLE_DEVICES=0,确保程序只使用编号为 0 的 GPU,避免占用其他 GPU 资源。
  • 使用 llamafactory-cli webui 启动一个基于 Gradio 框架的 Web 用户界面。
  • 通过 GRADIO_SHARE=1,生成一个公共 URL,允许其他人通过互联网访问你的 WebUI。
  • 通过 GRADIO_SERVER_PORT=7860,将 WebUI 的服务端口固定为 7860。 

【注】如果跳出来 Could not create share link. Missing file

那就按照它的提示,去下载这个文件(如果你在服务器上面下载不下来,可以自己本地挂个梯子去下载,然后上传到服务器上),改名字,换路径,并改成可执行。

无法创建共享链接。缺少文件:`/root/.cache/huggingface/gradio/frpc/frpc_linux_amd64_v0.3`。请检查您的网络连接。如果您的杀毒软件阻止了该文件的下载,也可能导致此问题。您可以按照以下步骤手动安装:

1. 下载此文件:https://cdn-media.huggingface.co/frpc-gradio-0.3/frpc_linux_amd64
2. 将下载的文件重命名为:`frpc_linux_amd64_v0.3`
3. 将文件移动到以下位置:`/root/.cache/huggingface/gradio/frpc`
4. 给这个文件加上执行权限 chmod +x frpc_linux_amd64_v0.3

执行成功之后可以看到一个gradio.live的链接。点击就可以使用了!

 

二、llamafactory工程文件目录里面都有是些什么?

目录结构

 “LLaMA-Factory”的项目目录结构。以下是对各个文件夹和文件的简要说明:

文件夹/文件简要说明
assets通常用于存放项目的静态资源,如图片、样式表等。
data用于存放数据集或模型训练所需的数据。
docker包含与Docker相关的配置文件和脚本,用于容器化部署。
evaluation可能包含评估模型性能的脚本和工具。
examples示例代码或使用案例,帮助用户了解如何使用该项目。
scripts脚本文件,自动化任务或辅助工具。
src源代码文件夹,存放项目的主程序代码。
tests测试文件夹,存放单元测试和其他测试脚本。
CITATION.cff引用格式文件,指导如何正确引用此项目。
LICENSE许可证文件,说明项目的使用许可条款。
Makefile构建文件,定义了编译和构建项目的规则。
MANIFEST.inPython打包工具(如setuptools)使用的文件,指定哪些文件应该被包含在发布包中。
pyproject.tomlPython项目配置文件,用于管理项目依赖和构建设置。
README.md项目的英文README文件,提供项目介绍和使用指南。
README_zh.md项目的中文README文件,提供项目介绍和使用指南。
requirements.txt列出项目运行所需的Python包及其版本。
setup.pyPython项目的安装脚本,用于打包和安装项目。

三、webui里面的微调参数的都是什么意思? 

虽然把界面设置成中文,基本都能读懂,但还是有必要对一些参数做点说明:

名字

解释

补充

模型路径

一般是服务器中存放模型的绝对路径。也可以是huggingface上面的模型标识符。

建议自己下载到本地,然后用本地服务器的绝对路径。

微调方法

常用就2个,LoRA和QLoRA

检查点路径

训练过后保存模型权重的路径,方便你做增量训练

量化等级

具体要损失多少精度,提升多少推理速度,常用有8bit、4bit量化等级

量化方法

实现量化的具体技术,比如线性量化或非线性量化

一般使用bitstandbytes开源量化库

对话模板

构建提示词使用的模板,要和你想微调的模型保持一致

日志间隔

默认是每5轮epoch保存一次日志

保存间隔

默认是每100epoch保存一次模型权重

会在每次保存权重之前,去跑一次验证

输出路径

输出路径就是保存你训练好的LoRA模型参数的路径。

一般是在一个叫做save/模型名字/lora下面,用chekpoint来命名,LoR模型无法单独使用

配置路径

配置路径的意思就是webui设置好的参数,生产一个yaml文件,可以用这个文件去等效的用在命令行中做微调训练

将webui的配置保存成一个yaml

验证集比例

在每一次保存权重之前做验证的时候用到

量化数据集

用来衡量量化前后

LoRA

LoRA训练中的秩大小,影响LoRa训练中自身数据对模型作用程度,秩越大作用越大,需要依据数据量选择合适的秩。

一般设置32到128之间默认8

LoRA缩放系数

LoRa训练中的缩放系数,用于调整初始化训练权重,使其与预训练权重接近或保持一致。

一般是LoRA两倍,一般设置个128、256

截断长度

单个训练数据样本的最大长度,超出配置长度将自动截断。

批处理大小

批次大小代表模型训练过程中,模型更新模型参数的数据步长,模型每看多少数据即更新一次模型参数。

合适batch size可以加速训练

deepspeed stage

选择分布式多卡训练模式

三种模式一般第二种

deepspeed offload

一部分数据显存放到内存

耗时间

四、直接使用webchat来和指定模型对话

        虽然可以在webui的chat中和指定的模型去对话。但llamafactory还单独给了一个命令,能够起一个webchat来加载模型进行对话。

llamafactory-cli webchat --model_name_or_path MODEL_NAME_OR_PATH
执行命令
llamafactory自带的webchat

五、使用cli train进行黑窗口微调训练的时候如何配置训练参数?

        这个问题看上去很简单,查一下官方文档不就好咯~或者看看example里面的yaml例子呗!说的很好!我们先来学习一下这两种方式:

(1)参考官方文档的配置文件

想直接看官方文档的请点击这里:llamafactory SFT 训练

llamafactory-cli train examples/train_lora/llama3_lora_sft.yaml

        通过上面这行命令来开始训练,你会发现好简单,但紧接着就困惑了ymal配置文件里面的key都有哪些呀?都是什么意思呢?其实这一部分的答案就在官方文档中,官方贴心的给了一个小字提醒“重要训练参数”,还列了个表格方便你查阅。我就不要脸的直接复制在下面:

名称

描述

model_name_or_path

模型名称或路径

stage

训练阶段,可选: rm(reward modeling), pt(pretrain), sft(Supervised Fine-Tuning), PPO, DPO, KTO, ORPO

do_train

true用于训练, false用于评估

finetuning_type

微调方式。可选: freeze, lora, full

lora_target

采取LoRA方法的目标模块,默认值为 all

dataset

使用的数据集,使用”,”分隔多个数据集

template

数据集模板,请保证数据集模板与模型相对应。

output_dir

输出路径

logging_steps

日志输出步数间隔

save_steps

模型断点保存间隔

overwrite_output_dir

是否允许覆盖输出目录

per_device_train_batch_size

每个设备上训练的批次大小

gradient_accumulation_steps

梯度积累步数

max_grad_norm

梯度裁剪阈值

learning_rate

学习率

lr_scheduler_type

学习率曲线,可选 linearcosinepolynomialconstant 等。

num_train_epochs

训练周期数

bf16

是否使用 bf16 格式

warmup_ratio

学习率预热比例

warmup_steps

学习率预热步数

push_to_hub

是否推送模型到 Huggingface

【注】关键的问题来了——如果我还想配置得更细来进行训练呢?

(2)参考examples文件夹里面的yaml配置文件

# 全参数量微调的配置文件
LLaMA-Factory/examples/train_full

# LoRA微调的配置文件
LLaMA-Factory/examples/train_lora

# QLoRA微调的配置文件
LLaMA-Factory/examples/train_qlora

        配置文件的路径我给大家列出来了。里面有很多配置文件供你参考。但正是因为太多了,我都分不清这些配置文件都对应什么作用呀!?

        其实,人家仓库里面早就考虑到你会懵逼,所以贴心的在README.md文件里面写清楚了。这里拿最常用的LoRA举例子。

任务类型命令
(增量)预训练llamafactory-cli train examples/train_lora/llama3_lora_pretrain.yaml
指令监督微调llamafactory-cli train examples/train_lora/llama3_lora_sft.yaml
多模态指令监督微调llamafactory-cli train examples/train_lora/qwen2vl_lora_sft.yaml
DPO/ORPO/SimPO 训练llamafactory-cli train examples/train_lora/llama3_lora_dpo.yaml
多模态 DPO/ORPO/SimPO 训练llamafactory-cli train examples/train_lora/qwen2vl_lora_dpo.yaml
奖励模型训练llamafactory-cli train examples/train_lora/llama3_lora_reward.yaml
PPO 训练llamafactory-cli train examples/train_lora/llama3_lora_ppo.yaml
KTO 训练llamafactory-cli train examples/train_lora/llama3_lora_kto.yaml
预处理数据集llamafactory-cli train examples/train_lora/llama3_preprocess.yaml
在 MMLU/CMMLU/C-Eval 上评估llamafactory-cli eval examples/train_lora/llama3_lora_eval.yaml

(3)参考webui生成的配置命令

        其实我最想讲的是这个!比如我训练到500轮保存了检查点后想休息一下,下次接着训练,但是我又不知道配置文件中怎么进行配置,才能实现接着上次的检查点训练。你或许会说你都有webui了为啥多次一举?那就是有这样的需求万一无法使用webui,只能用黑窗口,但又不知道怎么配置。这时候你可以用另一台可以使用webui的电脑,在webui上选好配置,然后生成

在去到配置文件中加上就行!

 后续持续更新有关使用llamafactory过程中的我觉得值得记录的内容。 

共享内存是系统出于多个进程之间通讯的考虑,而预留的的一块内存区。在/proc/sys/kernel/目录下,记录着共享内存的一些限制,如一个共享内存区的最大字节数shmmax,系统范围内最大共享内存区标识符数shmmni等,可以手工对其调整,但不推荐这样做。 一、应用 共享内存的使用,主要有以下几个API:ftok()、shmget()、shmat()、shmdt()及shmctl()。 1)用ftok()函数获得一个ID号. 应用说明: 在IPC中,我们经常用用key_t的值来创建或者打开信号量,共享内存和消息队列。 函数原型: key_t ftok(const char *pathname, int proj_id); Keys: 1)pathname一定要在系统中存在并且进程能够访问的 3)proj_id是一个1-255之间的一个整数值,典型的值是一个ASCII值。 当成功执行的时候,一个key_t值将会被返回,否则-1被返回。我们可以使用strerror(errno)来确定具体的错误信息。 考虑到应用系统可能在不同的主机上应用,可以直接定义一个key,而不用ftok获得: #define IPCKEY 0x344378 2)shmget()用来开辟/指向一块共享内存的函数 应用说明: shmget()用来获得共享内存区域的ID,如果不存在指定的共享区域就创建相应的区域。 函数原型: int shmget(key_t key, size_t size, int shmflg); key_t key 是这块共享内存的标识符。如果是父子关系的进程间通信的话,这个标识符用IPC_PRIVATE来代替。如果两个进程没有任何关系,所以就用ftok()算出来一个标识符(或者自己定义一个)使用了。 int size 是这块内存的大小. int flag 是这块内存的模式(mode)以及权限标识。 模式可取如下值: IPC_CREAT 新建(如果已创建则返回目前共享内存的id) IPC_EXCL IPC_CREAT结合使用,如果已创建则则返回错误 然后将“模式” 和“权限标识”进行“或”运算,做为第三个参数。 如: IPC_CREAT | IPC_EXCL | 0640 例子中的0666为权限标识,4/2/1 分别表示读/写/执行3种权限,第一个0是UID,第一个6(4+2)表示拥有者的权限,第二个4表示同组权限,第3个0表示他人的权限。 这个函数成功时返回共享内存的ID,失败时返回-1。 关于这个函数,要多说两句。 创建共享内存时,shmflg参数至少需要 IPC_CREAT | 权限标识,如果只有IPC_CREAT 则申请的地址都是k=0xffffffff,不能使用; 获取已创建的共享内存时,shmflg不要用IPC_CREAT(只能用创建共享内存时的权限标识,如0640),否则在某些情况下,比如用ipcrm删除共享内存后,用该函数并用IPC_CREAT参数获取一次共享内存(当然,获取失败),则即使再次创建共享内存也不能成功,此时必须更改key来重建共享内存。 3) shmat()将这个内存区映射到本进程的虚拟地址空间。 函数原型: void *shmat( int shmid , char *shmaddr , int shmflag ); shmat()是用来允许本进程访问一块共享内存的函数。 int shmid是那块共享内存的ID。 char *shmaddr是共享内存的起始地址,如果shmaddr为0,内核会把共享内存映像到调用进程的地址空间中选定位置;如果shmaddr不为0,内核会把共享内存映像到shmaddr指定的位置。所以一般把shmaddr设为0。 int shmflag是本进程对该内存的操作模式。如果是SHM_RDONLY的话,就是只读模式。其它的是读写模式 成功时,这个函数返回共享内存的起始地址。失败时返回-1。 4) shmdt()函数删除本进程对这块内存的使用,shmdt()shmat()相反,是用来禁止本进程访问一块共享内存的函数。 函数原型: int shmdt( char *shmaddr ); 参数char *shmaddr是那块共享内存的起始地址。 成功时返回0。失败时返回-1。 5) shmctl() 控制对这块共享内存的使用 函数原型: int shmctl( int shmid , int cmd , struct shmid_ds *buf ); int shmid是共享内存的ID。 int cmd是控制命令,可取值如下: IPC_STAT 得到共享内存的状态 IPC_SET 改变共享内存的状态 IPC_RMID 删除共享内存 struct shmid_ds *buf是一个结构体指针。IPC_STAT的时候,取得的状态放在这个结构体中。如果要改变共享内存的状态,用这个结构体指定。 返回值: 成功:0 失败:-1
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值