大模型实战营Day1 书生·浦语大模型全链路开源体系
大模型实战营Day1 书生·浦语大模型全链路开源体系
大模型为发展通用人工智能的重要途经
从最近两年的发展来看,更倾向于用一个模型来尽可能涵盖所有任务(如
chatgpt)
- 专用模型:针对特定任务,一个模型解决一个问题
- 通用大模型:一个模型应对多种任务、多种模态
书生·浦语大模型开源历程
书生·浦语大模型系列
已经覆盖了轻量级、中量级、重量级三个级别,7B和20B都是开源可用的。
20B开源大模型的性能以不足三分之一的参数量,达到了非常好的性能。
不同量级的模型的能力和使用场景:
轻量级InternLM-7B(社区低成本可用最佳模型规模):70亿模型参数,小巧轻便,便于部署;10000亿训练token数据,信息全面,能力多维;具备长语境能力,支持8k语境窗口长度;具备通用工具调用能力,支持多种工具调用模板
中量级InternLM-20B(商业场景可开发定制高精度 较小模型规模):200亿参数量,在模型能力与推理代价间取得平衡;采用深而窄的结构,降低推理计算量但提高了推理能力;4k训练语境长度,推理时可外推至16k
重量级InternLM-123B(通用大语言模型能力全面覆盖 千亿模型规模):1230亿模型参数,强大的性能;具备极强的推理能力、全面的知识覆盖面、超强理解能力与对话能力;准确的API调用能力,可实现各类Agent
从模型到应用
根据实际应用需求实现大模型到智能体、微调、评测到部署
书生·浦语全链条开源开放体系
涵盖数据、预训练、微调,、部署、评测和应用
数据
书生·万卷是全链条开源开放体系的数据集,同时OpenDataLab平台有非常的开放数据可供下载。
预训练
微调
微调XTuner
优化加速, 8G ROM 显卡调7B模型。支持全参数微调、LoRA 等低成本微调,提供增量续训和有监督微调。
部署LMDeploy
全链路部署,性能领先,每秒生成2000+ tokens。提供大模型在GPU上部署的全流程解决方案,包括模型轻量化、推理和服务。
大模型语言的特点带来了相应的技术挑战, 采用不同的优化部署方案;
使用LMDeploy, 模型轻量化, 推理和服务;
有优秀的推理性能, 静态/动态
评测 OpenCompass平台
全方位评测,性能可复现。80套评测集,40万道题目。
评测体系6大维度:
学科:初中考试、中国高考、大学考试、语言能力考试、职业资格考试
语言:字词释义、成语习语、语义相似、指代消解、翻译
知识:知识问答、多语种知识问答
理解:阅读理解、内容分析、内容总结
推理:因果推理、常识推理、代码推理、数学推理
安全:偏见、有害性、公平性、隐私性、真实性、合法性
智能体应用
智能体以大模型为核心,进行调用、规划、推理和执行。
轻量级智能体框架:AppAgent