第四课作业 XTuner微调小助手+多模态llava

定制自己的InternLM2_chat_1.8B小助手

通过QLORA训练出Adapter模型,整合为完整模型并应用于垂类任务
1.环境安装完成
image.png
2.数据集、前期准备完成,配置文件修改完成
image.png
3.训练中,耗时较长约一小时,训练log基本沿用了mmdet的格式,都用的mmengine.hooks.LoggerHookAPI,显存占用4963MB
image.png
4.训练完成、HF.bin格式转换完成
image.png
5.模型整合成功,过程需要大概五分钟
image.png
6.对话成功
image.png
7.webdemo部署成功,明显过拟合,只会说一句话。分析原因为adapter数据集都是同一句话,样本太少。显存占用4720/8182MB,表明推理需要4GB左右。
image.png

多模态LLava

操作和讲解文档
训练Image Projector。

  • 分为pretain和finetune两部分,此部分pretrain文件已经备好,主要关注finetune阶段的效果。
  • pretain:用大量数据(图片+简单文本)训练Image Projector基本视觉能力
  • finetune:用高质量数据(图片+复杂文本)提升Image Projector的视觉能力

1.环境完成,配置文件完成
image.png
2.微调模型,使用了deepseed_zero2加速,训练完成,约30分钟,占用显存16620MB
image.png
3.对比性能(转换模型格式pth2hf,应用对比)

  • 加载 1.8B模型 和 Pretrain阶段产物(iter_2181)。效果一般,甚至答非所问。因为训练数据只有简单文本。

image.png

  • 加载 1.8B 和 Fintune阶段产物。描述更加详细,英文回答准确,中文回答差异较大,疑似在描述其他图片。

image.png

  • 8
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值