【书生浦语大模型实战营第三期】基础岛 书生大模型全链路开源体系

讲师: 陈恺,上海人工智能实验室 青年科学家

主题: 书生·浦语大模型全链路开源体系

B站回顾: 书生·浦语大模型全链路开源体系_哔哩哔哩_bilibili

在这里插入图片描述

视频首先接受了关于大模型的发展路程和生活中的具体应用如经典的AlphaGo的围棋比赛和近年来的AI预测蛋白质结构,由专用的模型变成的通用大模型比ChatGPT。简述了有关书生浦语的开源和发展历程。

在这里插入图片描述

书生·浦语 2.0(InternLM2)的体系

面向不同的使用需求 ,每个规格包含三个模型版本。

  • 7B:为轻量级的研究和应用提供了一个轻便但性能不俗的模型。
  • 20B:模型的综合性能更为强劲,可有效支持更加复杂的实用场景。
  • InternLM2-Base:高质量和具有很强可塑性的模型基座 是模型进行深度领域适配的高质量起点。
  • InternLM2:在 Base 基础上,在多个能力方向进行了强化 ,在评测中成绩优异,同时保持了很好的通用语言能力,是我们推荐的在大部分应用中考虑选用的优秀基座。
  • InternLM2-Chat:在 Base 基础上,经过 SFT 和 RLHF,面向对话交互进行了优化,具有很好的指令遵循、共情聊天和调用工具等的能力。

在这里插入图片描述

回归语言建模的本质

新一代数据清洗过滤技术

  • 多维度数据价值评估:基于文本质量、信息质量、信息密度等维度对数据价值进行综合评估与提升。
  • 高质量语料驱动的数据富集:利用高质量语料的特征从物理世界、互联网以及语料库中进一步富集更多类似语料。
  • 有针对性的数据补齐 针对性补充语料,重点加强世界知识、 数理、代码等核心能力。
    在这里插入图片描述

InternLM2的主要亮点

在这里插入图片描述

模型到应用的典型流程

模型到应用的典型流程如下

模型选型: 根据业务需求选择合适的模型。

业务场景分析: 评估算力和环境交互需求。

参数微调: 根据场景选择微调形式。

环境交互类型选择: 构建智能体(agent)。

构建智能体: 根据需求构建。

模型评测: 使用OpenCompass等工具进行评测。

模型部署: 将模型部署到实际应用中。

在这里插入图片描述

书生浦语全链条开源开放体系:

由以下数据准备(书生·万卷)、预训练(InternLM-Train)、微调(XTuner)、部署(LMDeploy)、评测(OpenCompass)、应用(LagentAgentLego) 组成。
在这里插入图片描述

开放的高质量语料数据

在这里插入图片描述

预训练

在这里插入图片描述

微调

在这里插入图片描述
在这里插入图片描述

评测

在这里插入图片描述
在这里插入图片描述

部署

在这里插入图片描述
在这里插入图片描述

智能体

在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值