
【无标题】
2. 陈丹琦团队提出的一种改进GPT-3的模型,其可以扩展到任意的预训练模型上,并可以在小样本情景下更好的进行微调。4. 这是一篇跨任务泛化的工作,采用检索增强的方法实现了零资源的跨任务泛化能力增强。作者发现,使用对比句子目标的预训练可以显著提高语言模型在连贯对话生成任务上的性能,尤其是在长对话场景中。3. 本文主要对ICL和PEFT方法,在少样本场景下进行了严谨的实验对比,发现PEFT方法在取得很高精度的情况下,同时很大降低了计算消耗,可以作为替代ICL针对fine-tuning范式缺陷的一个解决方案。







