-
书生·浦语大模型系列
- 轻量级:InternLM-7B
- 70亿模型参数
- 1000亿训练token数据
- 长语境能力,支持8K语境窗口长度
- 通用工具调用能力,多种工具调用模板
- 中量级:InternLM-20B
- 200亿模型参数,在模型能力与推理代价间取得平衡
- 采用深而窄的结果,降低推理计算量但提高推理能力
- 4K训练语境长度,推理时可外推至16K
- 重量级:1230亿模型参数,强大的性能
- 极强推理能力、全面的知识覆盖面、超级理解能力与对话能力
- 准确的API调用能力,可实现各类Agent
- 轻量级:InternLM-7B
-
从模型到应用流程
- 浦语大模型全链路开源体系生态- 数据:书生·万卷
- 2TB数据,涵盖多种模态与任务
- 预训练:InternLM-Train
- 并行训练,极致优化速度达到3600 Tokens/sec/gpu
- 微调:XTuner
- 支持全参数微调
- 支持LoRA等低成本微调
- 部署:LMDeploy
- 全链路部署,性能领先
- 每秒生成2000+tokens
- 评测:OpenCompass
- 全方位评测,性能可复现80套评测集,40万道题目
- 应用:
- Legent(轻量级智能体框架):搭建简单的智能体
- AgentLego:支持多种智能体,支持代码解释器等多种工具
- 数据:书生·万卷
-
全链路开源开放体系|数据
- 文本数据:50亿个文档,数据量超1TB
- 图像-文本数据集:超2200万个文件,数据量超140GB
- 视频数据:超1000个文件,数据量超900GB
- 特点:
- 多模态融合:万卷包含文本、图像和视频等多模态数据,涵盖科技、文学、媒体、教育和法律等多个领域。该数据集对模型的知识内容、逻辑推理和泛化能力的提升有显著提升。
- 精细化处理:万卷经过语言筛选、文本提取、格式标准化、数据过滤和清洗(基于规则和模型)、多尺度去重和数据质量评估等精细数据处理环节,能够很好地适应后续模型训练的要求
- 价值观对齐:在万卷的构建过程中,研究人员注重将数据内容与主流中国价值观进行对齐,并通过算法和人工评估的结合提高语料库的纯净度。
-
全链路开源开放体系|预训练
- 高可扩展:支持从8卡到千卡训练,千卡加速效率达92%。
- 极致性能优化:Hybrid Zero独特技术+极致优化,加速50%
- 兼容主流:无缝接入HuggingFace等技术生态,支持各类轻量化技术
- 开箱即用:支持多种规格语言模型,修改配置即可训练
-
全链路开源开放体系|微调
- 增量续训
- 使用场景:让基座模型学习到一些新知识,如某个垂类领域知识
- 训练数据:文章、书籍、代码等
- 有监督微调
- 使用场景:让模型学会理解和遵循各种指令,或者注入少量领域知识
- 训练数据:高质量对话、问答数据
- 增量续训
高效微调框架:XTuner
-
全链路开源开放体系|微调
- OpenCompass评测体系
-
全链路开源开放体系|部署
- 大语言模型特点
- 内存开销巨大
- 庞大的参数量
- 采用自回归生成token,需要缓存k/v
- 动态Shaps
- 请求数不固定
- token逐个生成,且数量不定
- 模型结构相对简单
- transformer结构,大部分是decoder-only
- 内存开销巨大
- 技术挑战
-
设备
- 低存储设备:消费级显卡、移动端等如何部署?
-
推理
- 如何加速token的生成速度
- 如何解决动态shape,让推理可以不间断
- 如何有效管理和利用内存
-
服务
- 提升系统整体吞吐量
- 降低请求的平均响应时间
-
- 部署方案
- 技术点
- 模型并行
- 低比特量化
- Atterntion优化
- 计算和访存优化
- Continuous Batching
- 技术点
- 解决方案-LMDeploy
- 大语言模型特点
-
全链路开源开放体系|智能体
-
轻量级智能体Lagent
-
多模态智能体工具箱AgentLego
- 丰富的工具集合,尤其是提供了大量视觉、多模态相关领域的前沿算法功能
- 支持多个主流智能体系统,如LangChain,Transformers Agent,Lagent等
- 灵活的多模态工具调用接口,可以轻松支持各类输入输出格式的工具函数
- 一键式远程工具部署,轻松使用和调试大模型智能体
-