AI大模型:(二)3.2 Llama-Factory微调训练deepseek-r1实践

目录

1.环境准备

2.模型下载

2.1.显存计算

2.2.存储计算

2.3.模型下载

3.Llama-Factory下载

4.数据准备

5.训练

5.1.Llama-Factory数据格式

5.2.配置外部数据集

5.3.运行Llama-Factory

5.4.UI界面配置

5.5.开始训练

5.6.评测

5.7.推理

5.8.导出模型


1.环境准备

     我们使用python虚拟环境做隔离,防止包冲突:

python -m venv python_model       # 创建名为python_model的虚拟环境
source python_model /bin/activate  # 激活环境(Linux/macOS)
 
python_model\Scripts\activate.bat  # 激活环境 windows

2.模型下载

训练时选择模型大小,需要考虑gpu显存、模型存储(存储一般现在存储资源也不贵,也很大,一般都够):

2.1.显存计算

gpu显存计算公式:</

### 使用 LLaMA-FactoryDeepSeek-R1-Distill-Qwen-7B 模型进行微调 对于希望使用 `LLaMA-Factory` 工具对特定模型如 `DeepSeek-R1-Distill-Qwen-7B` 进行微调的情况,可以遵循以下指导: #### 准备环境与资源 确保已经按照官方说明克隆了项目仓库并安装依赖项。这一步骤至关重要,因为后续操作均基于此开发环境中执行。 ```bash git clone http://developer.sourcefind.cn/codes/OpenDAS/llama-factory.git cd llama-factory && pip install -e ".[torch,metrics]" ``` 上述命令用于获取最新版本的源码以及设置必要的Python包支持[^1]。 #### 配置微调参数文件 创建或编辑配置YAML文件以定义具体的超参设定、数据路径及其他选项。针对不同任务需求调整这些参数能够显著影响最终效果。例如,在处理图像分类问题时,可能需要特别指定输入特征维度等细节。 假设有一个名为 `my_custom_finetune_config.yaml` 的配置文件,其中包含了关于目标领域(比如时尚物品识别)、训练集位置以及其他必要信息的内容描述。 #### 执行微调过程 利用预构建脚本启动实际的微调流程。这里假定采用的是低秩适应(LoRA)技术来进行高效迁移学习,则对应的CLI指令可能是这样的形式: ```bash llamafactory-cli train examples/train_lora/mytrain_lora_sft.yaml ``` 这条语句会读取之前准备好的配置文档,并据此开始优化给定的基础架构——即此处提到的 `DeepSeek-R1-Distill-Qwen-7B` ——使之更贴合于新的应用场景下的表现期望[^2]。 #### 测试改进后的性能 一旦完成一轮或多轮迭代更新之后,应当及时评估新版本的表现差异。借助内置Web界面功能可以直接加载最新的检查点权重,并通过交互方式快速验证某些具体实例上的变化趋势。 ```bash llamafactory-cli webui ``` 此时可以在图形界面上轻松上传待测样本(如图片),观察经过定制化改造过的网络结构能否更加精准地给出预期类别标签[^3]。 #### 应用场景中的考量 考虑到实际应用背景中存在将第三方标注体系转换成本地标准的需求,直接通过对基础AI系统的针对性再教育来减少中间环节误差不失为一种有效策略。这种方式不仅有助于提升整体判断精度,同时也简化了后期维护工作流的设计复杂度[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

hay_lee

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值