一、书生·浦语大模型开源历程
2023年
- 6月7日: InternLM 千亿参数语言大模型发布
- 7月6日: InternLM 千亿参数大模型全面升级,支持 8K 语境、26 种语言
- 8月14日: 书生·万卷 1.0 多模态预训练语料库开源发布
- 8月21日: 升级版对话模型 InternLM-Chat-7B v1.1 发布,开源智能体框架 Lagent
- 8月28日: InternLM 千亿参数模型参数量升级至 123B
- 9月20日: 增强版 InternLM-208 开源,开源工具链全升级
2024年
- 1月17日: InternLM 2 开源
- 1月 23 日: 发布 InternLM2-Math ,首个同时支持形式化数学语言及解题过程评价的开源模型
- 1月29日: 发布书生·浦语灵笔2(InternLM-XComposer2) 支持个性化高质量图
文创作和对话 - 5月24日: 开源 IntemLM2-Math-Plus,刷新开源数学模型性能上限
6月4日: 开源InterLM2-WOX,以200亿参数量在2024年高考中取得接近GPT-4o的成绩
InternLM 大模型性能天梯
二、书生·浦语 2.5概览
三、核心技术思路
四、领先的推理能力
五、一百万token 上下文
六、基于规划和搜索解决复杂问题
七、开源模型谱系
全链条开源开放体系
数据
开源数据处理工具箱
预训练 InternEvo
微调 XTuner
Xtuner评测
OpenCompass评测体系
部署LMDeploy
智能体
企业级知识库构建
茴香豆特性