大模型成为发展通用人工智能的重要途径
- 专用模型:针对特定人物,一个模型解决一个问题
- 通用大模型:一个模型应对多种任务、多种模态
从模型到应用
- 模型选型(评测)——>业务场景是否复杂——>算力足够吗——>续训/全参数微调——>是否需要环境交互——>构建智能体——>模型评测——>模型部署
- 根据业务场景是否复杂,决定微调与否
- 根据算力是否足够,决定全部/部分微调
- 根据是否需要环境交互,决定是否构建智能体
书生·浦语全链条开源开放体系
1. 数据:书生·万卷(2T)/OpenDataLab(80T,工具)
2. 预训练:InternLM-Train(支持千卡训练,兼容 HF)
3. 微调:XTuner(增量预训练、指令微调、工具类指令微调;8G显存微调7B模型;RTX 20 系以上)
4. 部署:LMDeploy(提供大模型在 GPU 上部署的全流程解决方案;turbomind)
5. 评测:OpenCompass(工具/平台/题目;学科、语言、知识、理解、推理、安全;40万+评测题目)
6. 应用:Lagent(框架)(支持 ReAct、ReWoo、AutoGPT),AgentLego(多模态智能体工具箱)(支持主流智能体系统:LangChain, Transformers Agent)
微调
1. 增量续训:
- 使用场景:让基座模型学习到一些新知识,如某个垂类领域知识
- 训练数据:文章、书籍、代码等
2. 有监督微调:
- 使用场景:让模型学会理解和遵循各种指令,或者注入少量领域知识
- 训练数据:高质量的对话、问答数据
大语言模型的局限性(借助 LLM+智能体 解决)
- 最新信息和知识的获取
- 回复的可靠性
- 数学计算
- 工具使用和交互