四个大模型轻量级微调训练框架:兼看PPT转Markdown工具

四个大模型轻量级微调训练框架:兼看PPT转Markdown工具

原创 刘焕勇 老刘说NLP 2024年07月28日 12:04 北京

今天来看两个问题:

一个是当前的四个微调训练框架,可以看看各自的特点

一个是文档智能工具-PPT转Markdown工具的一些实现逻辑,实现都很简单。

供大家一起参考并思考,持续学习,做原理性的思考。

问题1:当前的四个微调训练框架

1、Firefly

地址:https://github.com/yangjianxin1/Firefly

其给出了训练数据的情况:

图片

  • 支持预训练、指令微调、DPO,支持全量参数训练、LoRA、QLoRA高效训练。通过配置文件的方式训练不同的模型,小白亦可快速上手训练模型。

  • 支持使用Unsloth加速训练,并且节省显存。

  • 支持绝大部分主流的开源大模型,如Llama3、Gemma、MiniCPM、Llama、InternLM、Baichuan、ChatGLM、Yi、Deepseek、Qwen、Orion、Ziya、Xverse、Mistral、Mixtral-8x7B、Zephyr、Vicuna、Bloom,训练时与各个官方的chat模型的template对齐。

  • 整理并开源指令微调数据集:firefly-train-1.1M 、moss-003-sft-data、ultrachat、 WizardLM_evol_instruct_V2_143k、school_math_0.25M。

  • 开源Firefly系列指令微调模型权重 。

  • 在Open LLM Leaderboard上验证了QLoRA训练流程的有效性。

2、LLaMA-Factory

地址:https://github.com/hiyouga/LLaMA-Fa

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

强化学习曾小健

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值