【书生·浦语大模型实战营04】《(4)XTuner 大模型单卡低成本微调实战》学习笔记

本文介绍了如何在XTuner中使用低成本策略对LLM进行增量预训练和指令跟随微调,涉及对话模板、角色设定以及在InternLM平台上的实战步骤,包括数据准备、配置调整和常见问题解决。
摘要由CSDN通过智能技术生成

《(4)XTuner 大模型单卡低成本微调实战》

课程文档:《XTuner 大模型单卡低成本微调实战》

1 Finetune简介

在这里插入图片描述LLM的下游应用中,增量预训练指令跟随是经常会用到两种的微调模式

1.1 增量预训练微调

使用场景:让基座模型学习到一些新知识,如某个垂类领域的常识
训练数据:文章、书籍、代码等

1.2 指令跟随微调

使用场景:让模型学会对话模板,根据人类指令进行对话
训练数据:高质量的对话、问答数据
在这里插入图片描述

1.2.1 对话角色

指令跟随微调是为了得到能够实际对话的LLM;
介绍指令跟随微调前,需要先了解如何使用LLM进行对话;
在实际对话时,通常会有三种角色

  • System:给定一些上下文信息,比如“你是一个安全的AI助手”
  • User:实际用户,会提出一些问题,比如T世界第一高峰是?”
  • Assistant:根据User的输入,结合System的上下文信息,做出回答,比如“珠穆朗玛峰”

在使用对话模型时,通常是不会感知到这三种角色的;

1.2.2 对话模板

在这里插入图片描述
对话模板是为了能够让LLM区分出,SystemUserAssistant
不同的模型会有不同的模板;

LlaMa 2 模板
  • <<SYS>>: System上下文开始
  • <</SYS>>: System上下文结束
  • [INST]: User指令开始
  • [/INST]: User 指令结束
InternLM模板
  • <|System|>: System上下文开始
  • <|User|>: User指令开始
  • <eoh>: End of Human,User 指令结束
  • <|Bot|>: Assistant开始回答
  • : End of Assistant,Assistant 回答结束

4 动手实战环节

InternStudio平台中选择 A100(1/4) 的配置,镜像选择 Cuda11.7-conda

5 XTuner InternLM-Chat 个人小助手认知微调实践

5.2.2 数据准备

对话数据要复制很多份,直到训练后出现效果才可以;

5.2.3 配置准备

Note:修改示例代码中的每一行都要进行替换,包括evaluation_inputs属性。

5.2.4 微调启动

cd /root/personal_assistant/config && xtuner train /root/personal_assistant/config/internlm_chat_7b_qlora_oasst1_e3_copy.py

5.2.5 微调后参数转换/合并

Note:如果是重复测试,微调前需要删除hfhf_merge文件夹。

5.2.6 网页DEMO

请介绍一下你自己

Troubleshooting

(1)“在 Windows-PS 终端上执行ssh-keygen -t rsa卡住无响应”

在 Windows-PS 终端上执行ssh-keygen -t rsa命令,PS终端显示:

Generating public/private rsa key pair.
Enter file in which to save the key (C:\Users\xxx/.ssh/id_rsa):_

然后提示符在闪烁,不过10分钟左右之后却一直没有任何响应;
开启pig导致无法正常使用ssh命令;
关闭pig软件再使用ssh命令;

  • 6
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值