llama-factory简介

llamafactory是什么,能干什么

LLaMA-Factory 是一个易于使用的大规模语言模型(Large Language Model, LLM)微调框架,它支持多种模型,包括 LLaMA、BLOOM、Mistral、Baichuan、Qwen 和 ChatGLM 等。该框架旨在简化大型语言模型的微调过程,提供了一套完整的工具和接口,使得用户能够轻松地对预训练的模型进行定制化的训练和调整,以适应特定的应用场景。

llamafactory支持哪些模型,支持哪些微调技术

  • 多种模型:LLaMA、Mistral、Mixtral-MoE、Qwen、Yi、Gemma、Baichuan、ChatGLM、Phi 等等。

  • 集成方法:(增量)预训练、指令监督微调、奖励模型训练、PPO 训练、DPO 训练和 ORPO 训练。

  • 多种精度:32 比特全参数微调、16 比特冻结微调、16 比特 LoRA 微调和基于 AQLM/AWQ/GPTQ/LLM.int8 的 2/4/8 比特 QLoRA 微调。

  • 先进算法:GaLore、DoRA、LongLoRA、LLaMA Pro、LoRA+、LoftQ 和 Agent 微调。

  • 实用技巧:FlashAttention-2、Unsloth、RoPE scaling、NEFTune 和 rsLoRA。

  • 实验监控:LlamaBoard、TensorBoard、Wandb、MLflow 等等。

  • 极速推理:基于 vLLM 的 OpenAI 风格 API、浏览器界面和命令行接口

部分支持的模型:

模型名

模型大小

默认模块

Template

Baichuan2

7B/13B

W_pack

baichuan2

BLOOM

560M/1.1B/1.7B/3B/7.1B/176B

query_key_value

-

BLOOMZ

560M/1.1B/1.7B/3B/7.1B/176B

query_key_value

-

ChatGLM3

6B

query_key_value

chatglm3

DeepSeek (MoE)

7B/16B/67B

q_proj,v_proj

deepseek

Falcon

7B/40B/180B

query_key_value

falcon

Gemma

2B/7B

q_proj,v_proj

gemma

InternLM2

7B/20B

wqkv

intern2

LLaMA

7B/13B/33B/65B

q_proj,v_proj

-

LLaMA-2

7B/13B/70B

q_proj,v_proj

llama2

Mistral

7B

q_proj,v_proj

mistral

Mixtral

8x7B

q_proj,v_proj

mistral

OLMo

1B/7B

att_proj

olmo

Phi-1.5/2

1.3B/2.7B

q_proj,v_proj

-

Qwen

1.8B/7B/14B/72B

c_attn

qwen

Qwen1.5

0.5B/1.8B/4B/7B/14B/72B

q_proj,v_proj

qwen

StarCoder2

3B/7B/15B

q_proj,v_proj

-

XVERSE

7B/13B/65B

q_proj,v_proj

xverse

Yi

6B/9B/34B

q_proj,v_proj

yi

Yuan

2B/51B/102B

q_proj,v_proj

yuan

训练方法

方法

全参数训练

部分参数训练

LoRA

QLoRA

预训练

指令监督微调

奖励模型训练

PPO 训练

DPO 训练

ORPO 训练

数据集请参考:

LLaMA-Factory/README_zh.md at main · hiyouga/LLaMA-Factory · GitHub

参考:LLaMA-Factory/README_zh.md at main · hiyouga/LLaMA-Factory · GitHub

llamafactory如何加载训练数据,对模型存储有哪些约束

        模型加载都是通过命令行指定的

        model_name_or_path: Path to the model weight or identifier from huggingface.co/models or modelscope.cn/models.

        训练数据 是指定名称,位置放在项目的data目录下

        dataset--the name of provided dataset(s) to use. Use commas to separate multiple datasets.

        dataset_dir--Path to the folder containing the datasets.

llamafactory的模型评估具备哪些能力

有专门的一个评估类Evaluator,可以通过脚本运行评估

CUDA_VISIBLE_DEVICES=0 python src/evaluate.py \  --model_name_or_path path_to_llama_model \  --adapter_name_or_path path_to_checkpoint \  --template vanilla \  --finetuning_type lora \  --task mmlu \  --split test \  --lang en \  --n_shot 5 \  --batch_size 4

每次微调有记录吗

没有记录,都是调用的命令行

可以定时训练吗

没有定时训练能力

是否有量化能力

有的,CUDA_VISIBLE_DEVICES=0, --export_quantization_bit 4 导出量化模型

### 安装和使用LLaMA-Factory于Windows平台 #### 创建虚拟环境 为了确保开发环境的整洁以及依赖项管理的有效性,在开始安装 LLaMA-Factory 前建议创建一个新的 Python 虚拟环境。对于 Windows 用户来说,可以利用 Conda 来轻松完成这项工作: ```bash conda create -n llama_factory python=3.11 -y ``` 激活新建立好的虚拟环境以便继续后续的操作[^1]。 #### 安装必要的库文件 一旦虚拟环境被成功激活之后,下一步就是准备所需的软件包。特别是 PyTorch 的安装至关重要,因为其良好的兼容性能支持 LLaMA-Factory 正常运作并发挥最佳效能[^2]。可以通过 pip 或者 conda 渠道来获取最新版本的 PyTorch;具体命令取决于个人偏好及硬件条件(比如是否有 GPU 支持)。一般情况下如下所示: 通过pip安装PyTorch: ```bash pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117 ``` 注意上述链接中的 `cu117` 表示 CUDA 版本号,应根据实际情况调整。 #### 获取并设置 LLaMA-Factory 项目源码 当所有前置准备工作完成后,就可以着手下载 LLaMA-Factory 的官方仓库到本地计算机上了。通常推荐采用 Git 工具来进行克隆操作: ```bash git clone https://github.com/example-user/llama-factory.git cd llama-factory ``` 接着按照项目的文档指引进一步执行安装指令和其他初始化设定,这可能涉及到更多特定模块或工具链的引入。 #### 验证安装成果 最后一步是要验证整个流程是否顺利完成。进入 LLaMA-Factory 提供的例子目录运行测试程序,观察输出结果能否达到预期效果即可确认安装无误。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值