书生大模型全链路开源开放体系
一、概述
书生大模型,即InternLM系列模型,是由上海人工智能实验室书生团队开发的一系列大语言模型。这些模型以其强大的功能而著称,涵盖了从基础的语言理解到复杂的数学解题和图文创作等多个领域。
发展历程如下图:
书生·浦语2.5
最新推出了InternLM2.5 系列大模型。InternLM2.5 系列模型在本仓库正式发布,具有如下特性:
- 卓越的推理性能:在数学推理方面取得了同量级模型最优精度,超越了 Llama3 和 Gemma2-9B。
- 有效支持百万字超长上下文:模型在 1 百万字长输入中几乎完美地实现长文“大海捞针”,而且在 LongBench 等长文任务中的表现也达到开源模型中的领先水平。 可以通过 LMDeploy 尝试百万字超长上下文推理。更多内容和文档对话 demo 请查看这里。
- 工具调用能力整体升级:InternLM2.5 支持从上百个网页搜集有效信息进行分析推理,相关实现将于近期开源到 Lagent。InternLM2.5 具有更强和更具有泛化性的指令理解、工具筛选与结果反思等能力,新版模型可以更可靠地支持复杂智能体的搭建,支持对工具进行有效的多轮调用