书生大模型全链路开源体系

1.书生浦语大模型的开源之路

2.每一代InternLM(书生浦语大模型的英文名称)的性能天梯

3.书生浦语2.5的各项性能指标

tips:GPT4o支持上下文能力为128k(即12.8万字)

4.核心技术思路

5.推理能力与主流的开源模型的对比效果

6.100万token上下文(大海捞针实验:上下文数量达到一定数量后定位特定文本的能力)

7.基于规划和搜索解决负责问题

8.书生浦语开源模型谱系(20B参数模型出现了涌现的情况,小于这个参数则类似于检索的效果)

9.全链条开源,与社区生态无缝链接

书生万卷--预料,训练材料

InternEvo--主流训练框架

XTuner--微调框架

LMDeploy--部署工具,超越vlim

OpenCompass--评测体系

相关应用

10.全链条开放体系-数据

11.全链条开放体系-开源数据处理工具箱

12.全链条开放体系-预训练InternEvo

优势:显存优化,分布式训练,分布式训练之间通信优化,原先无法训练的东西可以进行训练,可以节省企业成本

13.全链条开放体系-微调XTuner

14.全链条开放体系-OpenCampass评测体系

15.全链条开放体系-部署LMDeploy

16.链条开放体系-智能体

17.HuiXiangDou-企业级知识库构建工具

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值