书生·浦语大模型实战营学习笔记(一)

教程链接:​​​​​​GitHub - InternLM/tutorial

视频链接:书生·浦语大模型全链路开源体系_哔哩哔哩_bilibili

书生·浦语大模型全链路开源体系

从模型到应用:

数据

2TB数据 覆盖多种模态和任务

开源多模态语料库书生万卷1.0,包括文本数据、图像文本数据、视频数据,覆盖科技、文学、媒体、教育多个领域

预训练工具

微调

大语言模型的下游应用中,增量续训和有监督微调是经常会用到两种方式。

增量续训:使用场景:让基座模型学习到一些新知识,如某个垂类领域知识。训练数据:文章、书籍、代码等。训练数据的形式和格式与预训练一致。

有监督微调:使用场景:让模型学会理解和遵循各种指令,或者注入少量领域知识。训练数据:高质量的对话、问答数据。有监督微调通常采用全量参数微调和部分参数微调。以lora为例,将预训练权重固定,引入小的训练参数,减少训练代价。

高效的微调框架XTuner:能够适配多种生态,包括多种微调策略与算法,覆盖各类 SFT 场景;适配多种开源生态支持加载 HuggingFace、ModelScope 模型或数据集;自动优化加速开发者无需关注复杂的显存优化与计算加速细节。适配多种硬件:训练方案覆盖 NVIDIA 20 系以上所有显卡,最低只需 8GB 显存即可微调 7B 模型。

评测

目前国内外的评测体系有些为客观评测,有些是主观评测,也有部分主管和客观都支持。但从全面性来讲不能满足大模型的发展。

提出了OpenCompass评测体系,提供了六大维度,支持80+评测集,40万+评测题目。将大模型能力分为学科、语言、知识、理解、推理、安全六大维度。再在每个大维度中间细分,避免只关注某一个能力维度。

OpenCompass不仅提供了评测体系,也提供了多层可使用的工具。

部署

大语言模型特点:

  1. 内存开销巨:庞大的参数量,采用自回归生成token,需要缓存k/v
  2. 动态Shape:请求数不固定,token逐个生成,且数量不定
  3. 模型结构相对简单:transformer结构,大部分是decoder-only

技术挑战:

  1. 设备:低存储设备(消费级显卡、移动.端等) 如何部署?
  2. 推理:如何加速 token 的生成速度;如何解决动态shape,让推理可以不间断;如何有效管理和利用内存
  3. 服务:提升系统整体吞吐量;降低请求的平均响应时间

部署方案

        技术点

  1. 模型并行
  2. 低比特量化
  3. Attention优化
  4. 计算和访存优化
  5. Continuous Batching

为解决大语言模型部署所遇到的挑战开发了LMDeploy推理框架。模型轻量化、推理、服务都能解决。对外提供python接口,gRPC接口,RESTful接口。

智能体应用

大语言模型的局限性:

  1. 最新信息和知识的获取
  2. 回复的可靠性
  3. 数学计算
  4. 工具使用和交互

开源了一个轻量级智能体框架Lagent

针对智能体打造了多模态智能体工具箱 AgentLego

  • 丰富的工具集合,尤其是提供了大量视觉、多模态相关领域的前沿算法功能
  • 支持多个主流智能体系统,如 LangChain,Transformers Agent,Lagent 等
  • 灵活的多模态工具调用接口,可以轻松支持各类输入输出格式的工具函数
  • 一键式远程工具部署,轻松使用和调试大模型智能体

  • 23
    点赞
  • 31
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值