XTuner 微调个人小助手认知任务
记录复现过程并截图。
基础任务(完成此任务即完成闯关并获得 100 算力点)
使用 XTuner 微调 InternLM2-Chat-1.8B 实现自己的小助手认知,如下图所示(图中的伍鲜同志需替换成自己的昵称),记录复现过程并截图。
提前端口映射
power shell
ssh -CNg -L 8501:127.0.0.1:8501 root@ssh.intern-ai.org.cn -p
准备环境
微调前:
生成数据集
修改配置文件
启动微调
模型转换
模型合并
修改脚本文件xtuner_streamlit_demo.py并启动
进阶任务(闯关不要求完成此任务)
用自己感兴趣的知识对基座模型进行增量预训练微调
在资源允许的情况下,尝试实现多卡微调与分布式微调
将自我认知的模型上传到 OpenXLab,并将应用部署到 OpenXLab
OpenXLab 部署教程:https://github.com/InternLM/Tutorial/tree/camp2/tools/openxlab-deploy