【书生·浦语大模型实战营(第二期)笔记-篇1】

本文介绍了书生·浦语大模型实战营的首课内容,由陈恺老师讲解,详细阐述了InternLM2的开源历程、模型架构、强化功能及应用,涵盖了高质量语料、预训练、微调等全链条开源体系。
摘要由CSDN通过智能技术生成

本篇是书生·浦语大模型实战营(第二期)第一节课的笔记,实战营链接在这里也一并给出。

课程笔记

本次课程由陈恺老师讲授,主要介绍书生·浦语大模型全链路开源体系,以InternLM2体系为重点进行介绍。课程从以下几点展开:

  1. 开源历程:2023年6月7日InternLM千亿参数语言大模型发布;24年1月17日InternLM2开源;

  2. InternML2模型体系
    (1). InternLM2-Base: 模型基座,包括7B和20B两个版本;
    (2). InternLM2: 在Base基础上,在多个能力方向进行了强化;
    (3). InternLM2-Chat: 在Base基础上,优化对话交互,chat功能突出;

  3. InternLM2亮点
    (1). 超长上下文:模型可容纳20万Token上下文;
    (2). 综合性能提升:在推理、数学、代码能力比肩ChatGPT;
    (3). 语言能力强劲:精准指令跟随,并可实现结构化创作;
    (4). 工具调用能力:支持工具多轮调用,支持复杂智能体搭建;
    (5). 数理能力:内生计算能力强劲,数理能力和数据分析能力比肩GPT4;

  4. 模型应用
    InternLM2采用全链条开放,全面助力大模型在各行业的应用。下图显示了从模型到应用的典型流程以及书生·浦语全链条开源开放体系:
    在这里插入图片描述
    请添加图片描述

    下面从六个方面具体介绍开源开放体系
    (1). 高质量语料数据:OpenDataLab
    请添加图片描述
    (2). 预训练
    请添加图片描述
    (3). 高效微调框架XTuner
    请添加图片描述
    (4). 司南评测体系
    请添加图片描述
    请添加图片描述
    请添加图片描述
    (5). 使用LMDeploy进行模型部署请添加图片描述
    (6). 智能体请添加图片描述
    请添加图片描述
    请添加图片描述

  • 3
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值