主要为大家介绍这个体系~
InternLM就是书生浦语大模型的一个别称
近年发展的大模型性能天梯图
InternLM2.5概览
- 推理能力提升20%
- 支持100w字的上下文理解能力(对比gpt-4o为128k)
- 自主规划和搜索完成复杂任务(需要借助外部工具)
书生·浦语开源模型谱系
- 1.8B:超轻量级。可用于端侧应用或者开发者快速学习上手
- 7B:轻量级研究和应用提供支撑
- 20B:综合性能更强,支持复杂的实用场景
- 102B:闭源模型
全链条
- 数据:书生·万卷,开源多模态语料库
- 预训练框架:InternEvo
- 微调:XTuner
- 部署:LMDeploy
- 评测:OpenCompass
- 应用:
- MindSearch:思索式开源搜索应用
- Lagent:支持代码解释器的智能体框架
- MinerU:高效文档解析工具
- HuixiangDou:基于专业知识库的群聊助手
上面提到的微调、部署、评测的工具之后都会介绍使用~