大语言模型的指令微调(Instruction Tuning)最全综述:从数据集到技术全解析
原创 DataLearner DataLearner 2023-08-25 21:09 发表于江苏
收录于合集#大语言模型37个
当前的大语言模型主要是预训练大模型,在大规模无监督数据上训练之后,再经过有监督微调和对齐之后就可以完成很多任务。尽管如此,面对垂直领域的应用,大模型依然需要微调才能获得更好地应用结果。而大模型的微调有很多方式,包括指令微调、有监督微调、提示工程等。其中,指令微调(Instruction Tuning)作为改进模型可控性最重要的一类方法,目前并没有很好的资料参。浙江大学研究人员联合Shannon AI等单位发布了一篇最新的关于指令微调的综述,详细描述指令微调的各方面内容。
-
大模型微调简介
-
指令微调简介