书生大模型全链路开源体系
书生浦语大模型开源历程
书生浦语2.0(InternLM2)体系
书生浦语2.0体系,模型大小主要有2种规格:
- 7B,为轻量级的研究和应用提供了一个轻便但性能不俗的模型。
- 20B,模型的综合性能更为强劲,可有效支持更加复杂的实用场景。
每种规格里包含3类模型:
- 基座模型(InternLM2-Base),高质量和具有很强可塑性的模型基座是模型进行深度领域适配的高质量起点。
- 强化后的基座模型(InternLM2),在 Base 基础上,在多个能力方向进行了强化 ,在评测中成绩优异,同时保持了很好的通用语言能力,是我们推荐的在大部分应用中考虑选用的优秀基座。
- 对话模型(InternLM2-Chat),在 Base 基础上,经过 SFT 和 RLHF,面向对话交互进行了优化,具有很好的指令遵循、共情聊天和调用工具等的能力。
模型到应用
书生浦语开源开放体系
在大模型开发过程中,所涉及到的每个环节,书生浦语都有对应的开源工具: