一、Prompt Learning 的牛逼之处:使所有下游任务统一为一个语言模型问题
Prompt Learning 范式可以将几乎所有的下游任务均统一为预训练语言模型任务,从而避免了预训练模型和下游任务之间存在的 gap,几乎所有的下游 NLP 任务均可以使用,不需要训练数据,在小样本数据集的基础上也可以取得超越 Fine-Tuning 的效果,使得所有任务在使用方法上变得更加一致;
二、Prompt Learning 和 Fine-Tuning 方法的区别
Fine-Tuning 的方法使得预训练语言模型更加适配特定的下游任务,即可以理解为预训练模型向下游任务靠拢的过程;
Prompt Learning 可以理解为一种下游任务的重定义方法,即可以更好的利用预训练模型的能力,使得下游任务更加贴近于语言模型;
参考文献:
- https://blog.csdn.net/sinat_32332805/article/details/122429599