小白第一次接触大模型微调,还在实习没什么时间仔细看,跟着走完了流程,但有点懵。简单谈谈对大模型理解和对训练营的体会~
大模型:大语言模型(Large Language Model,LLM),是近年来人工智能领域的一项重要技术突破,通常包含数十亿甚至数千亿的参数,在海量文本数据上进行训练,从而具备了强大的语言理解和生成能力。大模型的能力不仅体现在对语言规律的掌握上,更在于其涌现能力——即随着模型规模的增大,展现出一些在小型模型中不明显的特性,如上下文学习、指令遵循、逐步推理等。这些能力使得大模型能够胜任多种复杂的语言任务,如文本生成、自动翻译、信息检索等。
大模型微调:是提升大模型在特定任务上表现的关键步骤,可以分为增量预训练微调和指令跟随微调两种范式。模型微调的整个流程包括数据准备、模型上传、训练参数设置、模型训练与发布等,能显著提高模型的准确率和泛化能力。
LoRA(Low-Rank Adaptation)微调:是一种高效的大模型微调方法,在不改变预训练模型大部分参数的情况下,仅通过训练少量的低秩矩阵来实现对模型的快速适应。这种方法不仅减少了计算资源的需求,还加快了训练速度,并有效避免了过拟合问题。核心思想是在预训练模型的基础上,通过引入低秩矩阵来适应新的任务。具体来说,LoRA 并不直接修改预训练模型的权重矩阵,而是在这些权重矩阵旁边添加额外的低秩矩阵(通常是两个较小的矩阵的乘积),通过这两个矩阵的乘积来近似对原始权重矩阵的修改。
训练营:体验非常好,跟着文档的内容能顺利跑完baseline,对大模型有了初步理解,但想上分还是需要多下功夫,群里的助教答疑也很快,下次我还来hhh!