大模型成为热发展人工智能的重要途径
专用模型:针对特定任务,一个模型解决一个问题
通用大模型:一个模型应对多种任务、多种模态
书生·浦语大模型开源历程
书生·浦语大模型系列
轻量级:InternLM-7B 社区低成本可用最佳模型规模
中量级:InternLM-20B 商业场景可开发定制高精度较小模型规模
重量级:InternLM-123B 通用大预言模型能力全面覆盖千亿模型规模
从模型到应用
书生·浦语大模型全链路开源体系
数据--->
预训练InternLM-Train--->
微调XTuner--->
sgusgebf部署LMDeploy--->
评测OpenCompass--->
应用Lagent AgentLego
数据
书生·万卷1.0
总数据量:2TB
发布日期:8月14日
多模态融合、精细化处理、价值观对齐
预训练
高可拓展、极致性能优化、兼容主流、开箱即用
微调
增量续训、有监督微调
高效微调框架XTuner:适配多种生态、适配多种硬件
极致的显存优化:消费级显卡(8GB)玩转微调
评测
部署
LMDeploy:提供大模型在GPU上部署的全流程解决方案,包括模型轻量化、推理和服务
智能体
大语言模型的局限性:最新信息和知识的获取、回复的可靠性、数学计算、工具使用和交互
LLM>智能体
多模态智能体工具箱AgentLego