书生·浦语大模型实战营笔记 01



书生·浦语大模型全链路开源体系

GitHub - InternLM/tutorialContribute to InternLM/tutorial development by creating an account on GitHub.icon-default.png?t=N7T8https://github.com/internLM/tutorial

大模型成为发展通用人工智能的重要途径

  - 专用模型:针对特定人物,一个模型解决一个问题
  - 通用大模型:一个模型应对多种任务、多种模态

从模型到应用

  - 模型选型(评测)——>业务场景是否复杂——>算力足够吗——>续训/全参数微调——>是否需要环境交互——>构建智能体——>模型评测——>模型部署


    - 根据业务场景是否复杂,决定微调与否
    - 根据算力是否足够,决定全部/部分微调
    - 根据是否需要环境交互,决定是否构建智能体

书生·浦语全链条开源开放体系

  1. 数据:书生·万卷(2T)/OpenDataLab(80T,工具)
  2. 预训练:InternLM-Train(支持千卡训练,兼容 HF)
  3. 微调:XTuner(增量预训练、指令微调、工具类指令微调;8G显存微调7B模型;RTX 20 系以上)
  4. 部署:LMDeploy(提供大模型在 GPU 上部署的全流程解决方案;turbomind)
  5. 评测:OpenCompass(工具/平台/题目;学科、语言、知识、理解、推理、安全;40万+评测题目)
  6. 应用:Lagent(框架)(支持 ReAct、ReWoo、AutoGPT),AgentLego(多模态智能体工具箱)(支持主流智能体系统:LangChain, Transformers Agent)

微调

  1. 增量续训:
     - 使用场景:让基座模型学习到一些新知识,如某个垂类领域知识
     - 训练数据:文章、书籍、代码等
  2. 有监督微调:
     - 使用场景:让模型学会理解和遵循各种指令,或者注入少量领域知识
     - 训练数据:高质量的对话、问答数据

大语言模型的局限性(借助 LLM+智能体 解决)

  - 最新信息和知识的获取
  - 回复的可靠性
  - 数学计算
  - 工具使用和交互

  • 4
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值