作为算法工程师的你是否对如何应用大型语言模型构建智能肿瘤问答系统充满好奇?是否希望深入探索LLaMA(类ChatGPT)模型的微调技术,进一步优化参数和使用不同微调方式?现在笔者会带您领略大模型训练与微调进阶之路,拓展您的技术边界!
通过阅读文章,读者将能够了解LLaMA(类ChatGPT) 微调的相关内容,并理解训练过程中的 Batch_size、数据类型、Zero 等参数设置以及 Lora 方式、Ptuning 方式等微调方式的应用。此外,读者将会了解优化器定义与参数的设定,同时了解和掌握监视器工具 Wandb 的使用。
除此之外,文章还会介绍包括数据准备、ChatGPT 数据生成流程等。对于微调方式,课程将分别以 Lora 方式、Ptuning 方式为例进行演示,并讲解合并 lora 参数与原始参数的方法、Fsdp 与 deepspeed 的全参数微调技巧等内容。最后,针对模型效果的测评,还将对相关指标进行说明和分析,帮助学员掌握有效评估模型性能的方法。