书生浦语第四课

  1. 微调范式:(1) 增量预训练微调:让底座模型(foundation)学习一些垂直领域的知识。(2) 指令跟随微调:让模型学会与人类对话。
  2. 一条数据的一生:(1) 原始数据:从书籍、网络等渠道获得的信息。(2) 标准格式数据:训练框架可以识别的数据格式。比如获取信息为世界最高峰为珠穆朗玛峰,那么在AI模型中应该转换为有system、user、assistant的格式,而在xtuner中为json文件格式。(3) 添加对话模板:为了区分user和assistant,需要在各自出现的时候添加对应的前缀,因此当数据投喂给模型时会转变为拥有前缀的对话。(4) Tokenized数据:将数据打包。(5) 添加Label。 (6) 开始训练。
  3. LoRA和QLoRA:(1) LoRA模型:如果对所有参数进行微调,那么需要很大的显存,LoRA模型可以规避这一问题。形象理解就是只更改部分零件,算法中为增加分支。(2) QLoRA方法在模型载入显存的时候采用特殊方法使得模型载入的时候 进行一些简化,从而减小显存的负担。
  4. Xtuner:(1) 含有多种微调算法、拥有加速服务、适配多种硬件。
  5. LLM模型:(1) 多模态LLM原理:对文本和图像进行向量化处理,载入LLM,最终输出文本。
  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值