书生大模型实战营-基础关-书生大模型全链路开源体系

书生浦语大模型开源历程

在这里插入图片描述

书生浦语2.0(InternLM2)体系

书生浦语2.0体系,模型大小主要有2种规格

  • 7B,为轻量级的研究和应用提供了一个轻便但性能不俗的模型。
  • 20B,模型的综合性能更为强劲,可有效支持更加复杂的实用场景。

每种规格里包含3类模型

  • 基座模型(InternLM2-Base),高质量和具有很强可塑性的模型基座是模型进行深度领域适配的高质量起点。
  • 强化后的基座模型(InternLM2),在 Base 基础上,在多个能力方向进行了强化 ,在评测中成绩优异,同时保持了很好的通用语言能力,是我们推荐的在大部分应用中考虑选用的优秀基座。
  • 对话模型(InternLM2-Chat),在 Base 基础上,经过 SFT 和 RLHF,面向对话交互进行了优化,具有很好的指令遵循、共情聊天和调用工具等的能力。

模型到应用

在这里插入图片描述

书生浦语开源开放体系

在大模型开发过程中,所涉及到的每个环节,书生浦语都有对应的开源工具:

  1. 数据阶段,书生万卷开源了2TB数据,涵盖多种模态和任务。
  2. 预训练阶段,轻量级训练框架InternEvo支持并行训练,极致优化,速度达到3600 tokens/sec/gpu。
  3. 微调阶段,XTuner支持多种大语言模型,包括但不限于 InternLM、Mixtral-8x7B、Llama 2、ChatGLM、Qwen、Baichuan。
  4. 部署阶段,LMDeploy支持全链路部署,每秒生成2000+ tokens。
  5. 评测阶段,OpenCompass支持全方位评测,涵盖100套评测集,50万道题目。
  6. 应用阶段,Lagent工具支持多种智能体,支持代码解释器等多种工具。
  • 4
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

great-wind

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值