概述
本文旨在介绍书生·浦语开源大模型的全链路开源开放体系,包括其关键特性、开源历程、工具链体系以及实战营的社会影响。
关键特性
书生·浦语开源大模型具备以下核心特性:
- InternLM2.5:采用高效模型结构,处理超长上下文和复杂任务。
- InternLM2-Math:专注于数学领域的大语言模型。
- InternLM-XComposer2.5:多模态模型,灵活处理图文交错文章。
- InternLM2-WQX:在高考中展现极致的语言和视觉表现。
开源历程
书生·浦语大模型的开源历程如下:
- 2023年6月7日:发布首个千亿参数模型。
- 2023年7月6日:InternLM-7B开源,免费商用,全链条工具体系发布。
- 2023年9月20日:InternLM-20B开源,工具链升级。
- 2023年9月27日:开源InternLM-XComposer,首个图文混合创作模型。
- 2024年1月17日:开源InternLM2,性能超越同量级模型。
- 2024年1月23日:发布InternLM2-Math,支持数学语言及解题评价。
- 2024年1月29日:发布InternLM-XComposer2,支持个性化图文创作和对话。
- 2024年5月24日:开源InternLM2-Math-Plus,刷新性能上限。
- 2024年6月4日:开源InternLM2-WQX,200亿参数量,高考成绩接近GPT-4o。
工具链体系
书生大模型开源工具链体系包括:
-
数据集:WanJuan2.0,1T Tokens高质量英文数据集。
-
预训练:InternEvo,轻量级训练框架。
-
微调:XTuner,轻量化大模型微调工具库。
-
部署:LMDeploy,轻量化部署和服务解决方案。
-
评测:OpenCompass,大模型评测平台。
-
应用:MindSearch、HuixiangDou。
实战营影响
书生大模型实战营已对以下群体产生积极影响:
- 高校:500+受益高校。
- 企业:1000+受益企业。
- 开发者:100000+受益开发者。
- 生态贡献:累计贡献500+生态项目。
结论
书生·浦语开源大模型通过其全链路开源开放体系,不仅推动了技术的发展,还促进了社会各界的广泛参与和贡献,展现了开源社区的强大力量。