大模型微调实践遗留问题1

文章探讨了Lora与AdaLora两种技术的异同,以及P-tuning和Prompttuning在模型微调上的区别。P-tuning主要修改大模型的Embedding,而P-tuningV2则进一步增加了参数。PromptTuning则采取固定预训练模型参数,仅更新输入模板tokens的方法。这些方法都涉及Transformer架构中的参数调整策略。
摘要由CSDN通过智能技术生成

Lora 和 AdaLora的区别和联系?

P-tuning和Prompt tuning的区别和联系?

P-Tuning,仅对大模型的Embedding加入新的参数。
P-Tuning-V2,将大模型的Embedding和每一层前都加上新的参数。

Prompt Tuning 方式可以看做是 Prefix Tuning 的简化,固定整个预训练模型参数,只允许将每个下游任务的额外 k 个可更新的 tokens (作为template的tokens)前置到输入文本中,也没有使用额外的编码层或任务特定的输出层。

原文链接:https://zhuanlan.zhihu.com/p/621700272

不同参数高效微调的模块在transformer中的位置:
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

YingJingh

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值