1.书生浦语大模型的开源之路
2.每一代InternLM(书生浦语大模型的英文名称)的性能天梯
3.书生浦语2.5的各项性能指标
tips:GPT4o支持上下文能力为128k(即12.8万字)
4.核心技术思路
5.推理能力与主流的开源模型的对比效果
6.100万token上下文(大海捞针实验:上下文数量达到一定数量后定位特定文本的能力)
7.基于规划和搜索解决负责问题
8.书生浦语开源模型谱系(20B参数模型出现了涌现的情况,小于这个参数则类似于检索的效果)
9.全链条开源,与社区生态无缝链接
书生万卷--预料,训练材料
InternEvo--主流训练框架
XTuner--微调框架
LMDeploy--部署工具,超越vlim
OpenCompass--评测体系
相关应用
10.全链条开放体系-数据
11.全链条开放体系-开源数据处理工具箱
12.全链条开放体系-预训练InternEvo
优势:显存优化,分布式训练,分布式训练之间通信优化,原先无法训练的东西可以进行训练,可以节省企业成本
13.全链条开放体系-微调XTuner
14.全链条开放体系-OpenCampass评测体系
15.全链条开放体系-部署LMDeploy
16.链条开放体系-智能体
17.HuiXiangDou-企业级知识库构建工具