ch1-书生浦语大模型全链路开源体系介绍

ch1-书生浦语大模型全链路开源体系介绍

书生浦语大模型全链路开源体系

视频链接:https://www.bilibili.com/video/BV1Rc411b7ns/?vd_source=b96c7e6e6d1a48e73edafa36a36f1697

首先简单介绍了一下大模型成为了热门关键词,以及大模型正成为发展通用人工智能的重要途径,然后就引入了书生浦语大模型的开源历程。目前,书生浦语大模型系列主要包括三个系列

  • 轻量级:InternLM-7B
  • 中量级:InternLM-20B
  • 重量级:InternLM-123B

号称全面领先相近量级的开源模型,以不足三分之一的参数量达到Llama2-70B的水平。

中间简单说了一下从模型到应用的几个关键步骤,从而引入了书生浦语全链条开源开放体系:

  • 数据:书生万卷,2TB数据,涵盖多种模态与任务
  • 预训练:InternLM-Train,并行训练,极致优化
  • 微调:XTuner,支持全参数微调,支持LoRA等低成本微调
  • 评测:OpenCompass开源评测平台架构
  • 部署:LMDeploy提供大模型在GPU上部署的全流程解决方案,包括模型轻量化、推理和服务。
  • 智能体:
    • Lagent,轻量级智能体框架
    • AgentLego,多模态智能体工具箱

全链条开源开放体系|数据

在这里插入图片描述
在这里插入图片描述

全链条开源开放体系|预训练

在这里插入图片描述

全链条开源开放体系|微调

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

全链条开源开放体系|评测

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

全链条开源开放体系|部署

大语言模型特点主要有:

  • 内存开销巨大
    • 庞大的参数量
    • 采用自回归生成token,需要缓存k/v
  • 动态Shape
    • 请求数不固定
    • token逐个生成,且数量不足
  • 模型结构相对简单
    • transformer结构,大部分是decoder-only

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

全链条开源开放体系|智能体

大语言模型的局限性

  • 最新信息和知识的获取
  • 回复的可靠性
  • 数学计算
  • 工具使用和交互

从LLM到智能体:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 8
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值