P-Tuning就是提示调优(Prompt Tuning),主要思想是固定预训练模型的参数,然后在模型的输入端添加可学习的"prompt"(提示)进行调整。这种方法的优点是计算成本低,因为只需要更新少量的参数。它不改变模型,而是通过对提示的优化,让模型输出最佳的结果,相关论文可参考【1】。从原理上讲,是在已训练的模型L的外面再套上一个可训练的模型P,在不改变L的情况下通过优化P,让P(L)最优。因为L的输入实际上就是提示,所以叫提示调优。
提示调优可以通过手动实现(不推荐)也可以通过自动训练实现。
下面举一个简单的例子通过对比来看人们是如何发明提示调优的。
比如我们的任务是情感分析,即给定一段文本,确定其情感是正面还是负面。
传统微调方法:
- 使用一个预训练的语言模型,如GPT。
- 在情感分析的训练数据上进行微调。
- 使用一个线性分类层,根据微调后的模型输出来进行情感分类。
静态提示训练:
-
首先,初始化一个或多个“提示”向量。这些向量可以随机初始化,或者使用一些先验知识来初始化。
-
在每个输入文本前加上一个“提示标记”。例如,我们可以添加一个“[SENTIMENT]”标记,然后紧跟原始文本。如:“[SENTIMENT] This movie is great!”
-
将这些“提示标记”与对应的提示向量关联起来。也就是说,