第三期书生大模型实战营(【基础岛】- 第5关 | XTuner 微调个人小助手认知)

第三期书生大模型实战营(【基础岛】- 第5关 | XTuner 微调个人小助手认知)

基础岛总览

关卡名称关卡资料通关激励
第1关书生大模型全链路开源体系任务、文档、视频100 算力点
第2关8G 显存玩转书生大模型 Demo任务、文档、视频100 算力点解锁 30% A100 权限
第3关浦语提示词工程实践任务、文档、视频100 算力点
第4关InternLM + LlamaIndex RAG 实践任务、文档、视频100 算力点
第5关XTuner 微调个人小助手认知任务、文档、视频100 算力点
第6关OpenCompass 评测 InternLM-1.8B 实践任务、文档、视频100 算力点

基础岛通关奖励:结营证书,解锁全部 50% A100 权限,1688 算力点奖励助力项目申请和落地。


任务

task.md

基础任务(完成此任务即完成闯关并获得 100 算力点)****
使用 XTuner 微调 InternLM2-Chat-1.8B 实现自己的小助手认知,如下图所示(图中的伍鲜同志需替换成自己的昵称),记录复现过程并截图。

进阶任务(闯关不要求完成此任务)
用自己感兴趣的知识对基座模型进行增量预训练微调
在资源允许的情况下,尝试实现多卡微调与分布式微调
将自我认知的模型上传到 OpenXLab,并将应用部署到 OpenXLab
OpenXLab 部署教程:https://github.com/InternLM/Tutorial/tree/camp2/tools/openxlab-deploy

闯关材料提交 (完成任务并且提交材料视为闯关成功)
请将作业发布到知乎、CSDN等任一社交媒体,将作业链接提交到以下问卷,助教老师批改后将获得 100 算力点奖励!!!
提交地址:https://aicarrier.feishu.cn/share/base/form/shrcnZ4bQ4YmhEtMtnKxZUcf1vd

文档

readme.md

XTuner微调前置基础

微调(fine-tuning)是一种基于预训练模型,通过少量的调整(fine-tune)来适应新的任务或数据的方法。

微调是在预训练模型的基础上,将模型中一些层的权重参数进行微调,以适应新的数据集或任务。

预训练模型部分已经在大规模数据上得到了训练,它们通常是较为通用且高性能的模型,因此可以很好地作为新任务的起点。微调可以加快模型的收敛速度,降低模型过拟合的风险,并在不消耗过多计算资源的情况下获取较好的模型性能。

XTuner微调

  1. 准数据文件
  2. 准备配置文件
  3. 启动微调
  4. 模型格式转换
  5. 模型合并

作业

1. 准数据文件

在这里插入图片描述

2. 微调后的模型对话

在这里插入图片描述

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值