【入门级大模型微调技术总结】懂深度学习的都能看懂

内容源于b站梗直哥丶:动画科普大模型微调技术总结,推荐看原视频讲的超级好,适合科普或入门(笔记仅供个人学习使用,已经原作同意)

大模型微调发展历史:一阶段主要是改模型结构增加一些参数;二阶段模板设计分软硬两种;三阶段范式相对更统一。

在这里插入图片描述

(1)Adapter微调:增加Adapter很少的额外参数,黄色部分

Adapter Tuning

(2)LoRA:低秩适配(low-rank adaptation),增加旁路,一个编码器一个解码器来模拟内在低秩矩阵,只通过训练新加部分(右侧的A和B)参数来适配下游任务,类似残差

LoRA

(3)Prefix-tuninig:前缀微调不改变模型结构,从训练数据入手,在训练数据前人为添加前缀,相当于任务说明书

Prefix-tuninig

(4)Prompt-tuning:前缀微调的简化版,输入层不额外处理,直接把prompt tokens添加到输入,大写ABC是不同的任务类型(比如情感分析、机器翻译等等),小写abc是句子数据

Prompt-tuning

(5)P-tuning:引入提示词编码器,h0-hi是提示词编码器生成的

P-tuning

总结:各种微调技术的本质——微调隐空间中的h

在这里插入图片描述

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值