书生·浦语大模型实战营·第4节· 课程地址:XTuner 大模型单卡低成本微调实战_哔哩哔哩_bilibili
FineTune简介
XTuner 简介
8GB显存玩转LLM
动手实践
github 教程:https://github.com/InternLM/tutorial/tree/main/xtuner
微调
微调训练,时长3小时左右,1epoch,with deepspeed-zero2
FP16,A100 1/4, 问答很慢,一秒2个字~。INT4速度明显快,简单问题回答内容一致。
自定义微调
以 Medication QA 数据集为例 ,基于 InternLM-chat-7B 模型,用 MedQA 数据集进行微调,将其往医学问答
领域对齐。
训练耗时大约6分钟,3epoch,with deepspeed-zero2
推理结果:
与真实数据有些区别,但都提到了减轻炎症的作用。
用 MS-Agent 数据集 赋予 LLM 以 Agent 能力
msagent 的训练非常费时,如果想尽快把这个教程跟完,可以直接从 modelScope 拉取已经微调好了的 Adapter。有了在 msagent 上训练得到的Adapter,模型现在已经有 agent 能力了!就可以加 --lagent 以调用来自 lagent 的代理功能了。
注:serper.dev 注册界面未响应,TBD