Simple LLM Finetuner 使用教程
1. 项目介绍
Simple LLM Finetuner 是一个为初学者设计的用户界面,旨在通过 LoRA 方法和 PEFT 库在商品 NVIDIA GPU 上微调各种语言模型。即使使用小型数据集和 256 的样本长度,也可以在常规的 Colab Tesla T4 实例上运行。该界面直观易用,用户可以轻松管理数据集、自定义参数、训练和评估模型的推理能力。
2. 项目快速启动
2.1 环境准备
首先,确保你有一个现代的 NVIDIA GPU,并且至少有 16 GB 的 VRAM。如果使用 WSL,可能需要手动安装 CUDA。
# 创建并激活虚拟环境
conda create -n simple-llm-finetuner python=3.10
conda activate simple-llm-finetuner
# 安装 CUDA 和 PyTorch
conda install -y cuda -c nvidia/label/cuda-11.7.0
conda install -y pytorch=2 pytorch-cuda=11.7 -c pytorch
2.2 克隆项目并安装依赖
# 克隆项目
git clone https://github.com/lxe/simple-llm-finetuner.git
cd simple-llm-finetuner
# 安装依赖
pip install -r requirements.txt
2.3 启动应用
# 启动应用
python app.py
打开浏览器并访问 http://127.0.0.1:7860/
,即可开始使用 Simple LLM Finetuner。
3. 应用案例和最佳实践
3.1 数据准备
在训练数据中,每个样本之间用两个空白行分隔。将整个训练数据集粘贴到文本框中。
3.2 训练模型
在 "New PEFT Adapter Name" 文本框中指定新的 LoRA 适配器名称,然后点击 "Train"。根据 GPU 内存情况,可能需要调整最大序列长度和批大小。
3.3 模型推理
训练完成后,导航到 "Inference" 标签,选择你的 LoRA 适配器,并开始进行推理。
4. 典型生态项目
- LLaMA-Factory: https://github.com/hiyouga/LLaMA-Factory
- Unsloth: https://github.com/unslothai/unsloth
- Text-Generation-WebUI: https://github.com/oobabooga/text-generation-webui
这些项目与 Simple LLM Finetuner 类似,都是用于微调语言模型的工具,可以根据具体需求选择使用。