书生·浦语大模型是由上海人工智能实验室(上海AI实验室)、商汤科技联合香港中文大学、复旦大学及上海交通大学共同研发的一个大规模语言模型。自2023年发布以来,历时一年多,目前已经更新到InternLM2.5。
书生谱语2.5概览:
推理能力领先:综合推理能力领先社区开源模型,相比上一代InternLM2性能提升20%;
支持100万字Token:百万字长文的理解和精确处理性能处于开源模型前列;
自主规划和搜索完成复杂任务:通过信息搜索和整合,针对复杂问题撰写专业回答,效率提升60倍
核心技术思路:
高质量的合成数据:1)基于规则的数据构造;2)基于模型的数据扩充;3)给予反馈的数据生成。
基于规划和搜索解决复杂问题:
书生·浦语2.5和人的解决思路对比
书生·浦语开源模型谱系:
从参数来划分:包括InternLM1.8B,InternLM7B,InternLM20B,InternLM102B等,使用体验:小于20B基本上还是基于训练数据的检索,在20B以上出现涌现的现象。
从模态来分:InternLM-XComposer(灵笔)、InternLM-Math(数学)、InternLM-WQX(文曲星)
开源体系总览图:
书生·浦语大模型开源体系涵盖从数据集准备、模型训练、微调到最终部署和应用的整个流程。全链条开源,与社区生态无缝连接。
以下是书生浦语大模型全链路开源体系的主要组成部分:
-
数据集:
- 数据集:包含多种模态的数据集,如文本、图像文本和视频等,用于训练模型;丰富多样的开放数据,并配套有相关的服务与工具。
- 开源数据处理工具箱:提供了数据处理和数据标注的工具,帮助用户更好的处理自己的数据。
-
预训练InternEvo:
- 大规模训练:支持千卡以上大规模训练,千卡加速比可达92%;
- 极致性能优化:4D并行+Ring Attention,最高支持1M长文训练
- 软硬件优化:兼容HuggingFace生态,支持NV与910B集群;
- 全场景训练:预训练+微调+RLHF,全场景覆盖。
-
微调:高效的微调框架XTuner
- 适配多种生态:多种微调算法、适配多种开源生态、自动优化加速;
- 适配多种硬件
-
部署:
- LMDeploy:提供了一套全面的部署框架,支持模型在GPU上的轻量化、推理和服务。
- 支持高性能的部署方案,以确保在实际应用中的良好响应速度和用户体验。
-
评测体系:
- OpenCompass:提供了一个全面的评估框架,用于测试和比较不同模型的性能。
- 广泛应用于头部大模型企业和科研机构
- 工具-基准-榜单 三位一体,构建科学、领先、公平的大模型评测体系携手行业助力通用人工智能发展。
-
模型应用(智能体):
- 轻量级智能体框架 Lagent:支持多种类型的智能体能力;灵活支持多种大语言模型;简单易扩展,支持丰富的工具。
- 智能体MindSearch
- 茴香豆
喜欢的小伙伴,点赞关注收藏吧。