目标
使用 XTuner 微调 InternLM2-Chat-1.8B 实现自己的小助手认知
复现过程
原本的样子
构造微调数据
微调设置
可以适当提高batch size。以及max epochs。我直接调到6个epochs,让模型过拟合。
显存占用情况
转换格式合并之后,打开web
最终微调效果
详细操作过程参考:
https://github.com/InternLM/Tutorial/tree/camp3/docs/L1/XTuner
https://github.com/InternLM/Tutorial/blob/camp3/docs/L1/XTuner/task.md
https://www.bilibili.com/video/BV1tz421B72y/?spm_id_from=333.788&vd_source=93c7668f83412ac7e55260171084accc