大模型微调到底有没有技术含量,或者说技术含量到底有多大?

我教你用ChatGPT提供的接口做微调,几分钟就能上手。

我用ChatGPT提供的API做过微调1\,一共跑了138轮,最后面的loss降的还算平稳。(具体操作方法在文末)

在这里插入图片描述

最后面花了0.09美元。

在这里插入图片描述

我想要实现的是让ChatGPT输出的语气语调要带有「道家思想」,下面是我之前做的测试,你可以看到。

我问它「如何应对压力?」

经过微调后的ChatGPT给我的回答:应对压力要心无杂念。庄子说”无忧无虑,何须畏忧“。
在这里插入图片描述

这就是我要的效果,因为最原始的ChatGPT做不了某些特定需求的工作,比如说它对于中国的古诗词的效果就不太好,大概率是因为它的训练数据中没有包含全部的古诗词,所以微调fine-tuning、RAG、Prompt工程其实都是在原有的模型上打补丁。

在这里插入图片描述

其实微调很好理解,就是一个高考完的学生,天文地理都懂一些,但是让他们干某一件具体的的事情,比如从切菜、配料和炒菜这样的活他们是干不了的。

他们知道刀可以切菜,但是什么菜怎么切最好是没有经验的;炒菜也一样,他们的物理化学肯定学了高温下的化学反应,但是具体的菜什么火候他们并不懂,所以需要做一下专项训练,也就是微调。在对OpenAI的API进行微调时,我遇到的最大问题是准备数据集,因为其他步骤基本上都是自动化的。

这是我准备的数据集,你可以看到跟训练好的GPT的输出非常的像,因为这就是我要的效果。

{“messages”: [{“role”: “system”, “content”: “道言是一个基于道家思想和语录回答问题的聊天机器人。”}, {“role”: “user”, “content”: “如何找到内心的平静?”}, {“role”: “assistant”, “content”: “内心的平静在于清心寡欲。正如庄子所言:‘淡泊以明志,宁静以致远。’”}]} {“messages”: [{“role”: “system”, “content”: “道言是一个基于道家思想和语录回答问题的聊天机器人。”}, {“role”: “user”, “content”: “如何面对挫折?”}, {“role”: “assistant”, “content”: “面对挫折,要像水一样柔韧。老子说:‘上善若水,水善利万物而不争。’”}]}

数据集的质量实际上决定了微调后模型的效果。总体来说,用现成的微调工具,比如说OpenAI的会会非常的简单,效果是由你的数据决定的。

但是有一个问题,那就是OpenAI的模型都是闭源的,如果你的数据是保密的或者说不能承受数据泄露的风险,那必须使用开源大模型,比如Llama。对于这方面的教程,建议大家参考智泊AI的这门大模型公开课,里面详细介绍了各种开源和闭源大模型,以及相关的技术细节,课程入口微信扫码可获取。

在这里插入图片描述

其实不管开源还是闭源大模型,微调是刚需,因为没办法一次性把所有的知识都灌输给大模型,毕竟每天都有新的知识产生,所以才有了各种各样的「打补丁」方式,提供了微调接口的大模型操作起来非常的简单,但是不了解原理的话还是会难以操作,以下是常见的大模型微调方法。

全量微调(Full Fine Tuning, FFT)

这种方法重新训练模型的所有参数,以适应新的任务或领域。虽然性能提升显著,但需要大量计算资源和时间,且存在灾难性遗忘的风险,即模型可能忘记预训练时学到的通用知识。

参数高效微调(Parameter-Efficient Fine Tuning, PEFT)

PEFT旨在减少微调的计算成本,通过调整模型的一小部分参数或添加额外参数来适应新任务。包括以下策略:

  • Prompt Tuning:不改变模型参数,为每个任务训练小型附加参数,这些参数影响输入的表示。
  • Prefix Tuning:在模型输入序列前添加固定长度的向量或“前缀”,这些向量在训练中被优化,引导模型产生特定于任务的输出。
  • LoRA(Low-Rank Adaptation):通过低秩分解添加和训练少量参数,以适应新任务,实现快速适应和轻松切换不同任务。

监督式微调(Supervised Fine Tuning, SFT)

使用带标签的数据集,通过传统监督学习方式对模型进行微调。

基于人类反馈的强化学习微调(Reinforcement Learning with Human Feedback, RLHF

结合人类反馈,通过强化学习调整模型,使其输出更符合人类期望。

基于AI反馈的强化学习微调(Reinforcement Learning with AI Feedback, RLAIF)

类似于RLHF,但反馈来源是AI系统,旨在提高反馈效率和降低成本。


大模型各种补丁的主要作用,就是应对「特殊的需求/没有见过的问题/调整一下输出的形式」,根据OpenAI的官方介绍,微调适用于以下五种情况:

  1. 调整写作风格、语气、格式等
  2. 提高生成正确结果的稳定性
  3. 修正模型在复杂提示下的表现
  4. 处理一些特殊的、意外的情况
  5. 学习和执行在提示中无法明确说明的新技能或任务

我的例子其实就是第一种,仅仅是对风格和语气进行调整。

实际上用OpenAI的API微调非常的简单,就这么简单的几步:

  1. 确定需要微调的模型。
  2. 准备并上传训练数据
  3. 训练新的微调模型。
  4. 评估结果,并根据需要决定是否重新训练。
  5. 使用微调后的模型。

其实除了微调之外,RAG(Retrieval-Augmented Generation)也非常的火,因为它相当于考试的时候带了参考书,这也是很多需要严谨回答时候采用的方法。

Verba是一个可以兼容很多个模型且直接可用的RAG工具。

在这里插入图片描述

它可以支持大多数主流大模型,以及可以做多种文件类型的支持。

在这里插入图片描述

这也是现在很多AI应用采用的方法,微调+RAG+Prompt工程一起上,大力出奇迹,不过前提是你得搞明白大模型的底层原理以及局限性,才能够因地制宜的采用多种组合方式,不了解的再次推荐这个大模型免费公开课。

如何学习AI大模型?

大模型的发展是当前人工智能时代科技进步的必然趋势,我们只有主动拥抱这种变化,紧跟数字化、智能化潮流,才能确保我们在激烈的竞争中立于不败之地。

那么,我们应该如何学习AI大模型?

对于零基础或者是自学者来说,学习AI大模型确实可能会感到无从下手,这时候一份完整的、系统的大模型学习路线图显得尤为重要。

它可以极大地帮助你规划学习过程、明确学习目标和步骤,从而更高效地掌握所需的知识和技能。

这里就给大家免费分享一份 2025最新版全套大模型学习路线图,路线图包括了四个等级,带大家快速高效的从基础到高级!

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
如果大家想领取完整的学习路线及大模型学习资料包,可以扫下方二维码获取
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序员一粟

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值