近年来,随着预训练语言模型(PLM)在自然语言处理(NLP)领域的广泛应用,如何在不改变大型语言模型结构和参数的情况下,适配各种下游任务成为了研究的热点。本文将介绍三种主流的参数高效微调(PEFT)技术方案:Prompt Tuning、Prefix Tuning 和 P-Tuning.
一、Prompt Tuning 小模型适配下游任务
1、基本概念
Prompt Tuning 是通过在输入序列前添加额外的 Token 来适配下游任务的方法。这些额外的 Token 是可训练的,而预训练语言模型的参数保持不变。
2、 例子讲解
例1:想象你是一家通用快递公司的快递员,你能够处理各种包裹。然而,现在你有一些特殊的包裹需要额外处理,比如易碎品。在 Prompt Tuning 中,相当于你在每个易碎品包裹前面加上一个特别的标签,比如“易碎”,以提醒你在处理这些包裹时要更加小心。例如,原始包裹信息是:“Package contains glassware”(包裹内含玻璃制品)。在 Prompt Tuning 中,你会在包裹信息前加上“易碎”标签,让信息变成:“Fragile: Package contains glassware”。这些“Fragile”标签是可训练的,通过训练这些标签,你可以更好地处理易碎品。
例2:假设你有一个已经训练好的模型,能够回答通用问题。现在你希望它能够更好地回答旅游相关的问题。原始输入句子是:“What is the best place to visit in summer?”(夏天最好的旅游地点是哪里?)。在 Prompt Tuning 中,你会在输入句子前添加一些额外的 Token,比如 [TRAVEL],让输入变成:[TRAVEL] What is the best place to visit in summer? 这些 [TRAVEL] Token 是可训练的,通过训练这些 Token,你可以让模型更好地理解这是一个关于旅游的问题。
3、 数学表示
假设原始输入序列为 X=[x1,x2,…,xm],在其前面添加 p 个 Prompt Token,形成新的输入序列 X`。
X′=[x1′,x2′,…,xp′;x1,x2,…,xm]
Y=WX′
在这个过程中,W 不变,仅通过训练前面的 Prompt Token 来适配下游任务。
4、应用场景
Prompt Tuning 特别适用于任务复杂度较低或数据量较少的下游任务例如:
-
文本分类:判断邮件是否为垃圾邮件。
-
情感分析:分析社交媒体上的评论是正面还是负面。
二、Prefix Tuning 在 Transformer 中适配下游任务
1、基本概念
Prefix Tuning 是在每层 Transformer 结构的输入前添加一组可训练的 Token。这样,模型在处理输入序列时,每一层的输入都会包含这些额外的 Token,从而适配下游任务。
2、例子讲解
例1:想象你是一家快递公司的管理员,你的任务是优化每个配送员的路线。现在,你需要处理一些重要包裹,确保它们能够优先配送。在 Prefix Tuning 中,相当于你在每个重要包裹的配送路线上添加一些额外的标记,比如“优先配送”,以确保配送员知道这些包裹需要优先处理。例如,原始配送路线信息是:“Deliver package to address A, then address B”(先送包裹到地址A,然后送到地址B)。
在 Prefix Tuning 中,你会在每层配送路线上加上“优先配送”标签,让信息变成:“Priority: Deliver package to address A, then address B”。这些“Priority”标签是可训练的,通过训练这些标签,你可以更好地优化重要包裹的配送路线。
例2:假设你有一个模型,可以翻译通用的句子。现在你希望它能够更好地翻译医学领域的句子。原始输入句子是:“The patient needs immediate attention.”(病人需要立即关注。)
在 Prefix Tuning 中,你会在每层 Transformer 的输入前添加一些 Token,比如 [MEDICAL],让输入变成:[MEDICAL] The patient needs immediate attention. 这些 [MEDICAL] Token 是可训练的,通过训练这些 Token,你可以让模型更好地理解这是一个关于医学的句子。
3、数学表示
假设 Transformer 的原始权重矩阵为 W,我们在其前面添加 p 个可训练的 Token,形成新的权重矩阵 W`。在输入序列 X 上应用新的权重矩阵 W。
W′=[w1′,w2′,…,wp′;W]
Y=W′X
这样,每一层 Transformer 的输入都会包含这些可训练的 Token。
4、 应用场景
Prefix Tuning 特别适用于需要捕捉复杂上下文信息的任务,例如:
-
生成式任务:如文本生成、对话生成等。
-
问答系统:根据上下文生成回答。
三、P-Tuning
1、基本概念
P-Tuning 是 Prompt Tuning 的一种变体,其核心思想是在特定位置插入可训练的 Token,使模型能够更好地理解下游任务的需求。P-Tuning 方法通过在输入序列中间插入额外的 Prompt Token,使模型在处理输入时能更好地捕捉上下文信息。
2、例子讲解
例1:想象你是一名快递员,你的任务是将包裹准确无误地送达目的地。现在,你需要处理一些特殊包裹,这些包裹需要在中途添加一些额外的处理步骤。在 P-Tuning 中,相当于你在配送过程中间的某个环节插入一些额外的处理步骤,比如“重新包装”或“安全检查”,以确保这些包裹能够安全送达。例如,原始包裹信息是:“Deliver package to address A”(将包裹送到地址A)。在 P-Tuning 中,你会在中途插入一些额外的处理步骤,让信息变成:“Deliver package to address A, stop for security check, then continue to address A”。这些额外的处理步骤是可训练的,通过训练这些步骤,你可以更好地处理特殊包裹。
例2:假设你有一个已经训练好的模型,可以生成文章。现在你希望它能够生成关于科技的文章。原始输入句子是:“Artificial intelligence is transforming the world.”(人工智能正在改变世界。)在 P-Tuning 中,你会在输入序列中间插入一些 Token,比如 [TECH],让输入变成:“Artificial intelligence [TECH] is transforming the world.” 这些 [TECH] Token 是可训练的,通过训练这些 Token,你可以让模型更好地理解这是一个关于科技的文章。
3、数学表示
假设输入序列为 X=[x1,x2,…,xm],在特定位置插入 p 个 Prompt Token,形成新的输入序列 X`。
X′=[x1,…,xi,x1′,x2′,…,xp′,xi+1,…,xm]
Y=WX′
通过在输入序列的关键位置插入可训练的 Token,使得模型能够更有效地捕捉任务相关信息。
4、 应用场景
P-Tuning 适用于各种下游任务,特别是那些需要在输入序列中捕捉特定位置信息的任务,例如:
-
序列标注:如命名实体识别、词性标注等。
-
文本生成:如自动摘要、对话系统等。
四、总结
通过上述三种参数高效微调(PEFT)技术方案——Prompt Tuning、Prefix Tuning 和 P-Tuning,研究者们能够在不改变预训练语言模型(PLM)参数的前提下,实现模型在不同下游任务上的高效适配。这些方法不仅降低了计算成本和存储需求,还提高了模型在各种任务上的表现。希望这些快递运输的比喻和其他例子能帮助你更好地理解这些技术原理。随着技术的不断发展,相信会有更多创新的方案涌现,为自然语言处理领域带来新的突破。
最后分享
AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能将变得越来越重要。
学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。
这里给大家精心整理了一份全面的AI大模型学习资源,包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享!
1. 成长路线图&学习规划
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。
这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。可以说是最科学最系统的学习成长路线。
2. 大模型经典PDF书籍
书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)
3. 大模型视频教程
对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识。
4. 大模型项目实战
学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。
5. 大模型面试题
面试,不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费
】
如有侵权,请联系删除。