【书生大模型实战】L1-书生大模型全链路开源体系

一、关卡任务

  • 观看本关卡视频后,写一篇关于书生大模型全链路开源开放体系的笔记。

  • 视频链接:【书生·浦语大模型全链路开源体系】 https://www.bilibili.com/video/BV1Vx421X72D/?share_source=copy_web

二、实验过程

书生·浦语大模型全链路开源体系,上海AI Lab,陈恺老师

大模型已经成为发展AGI的重要途径,传统的专用模型是针对特定任务,一个模型解决一个问题,比如ImageNet竞赛中涌现的分类模型,AlphaFold等等。

而通用模型旨在利用一个模型完成All任务,对应多种模态。比如GPT4通过Prompt实现。 

书生浦语大模型开源历程:从2023年6月7日的InternLM,到2024年1月17日的InternLM2开源,实际上2024 年7月3日,已经发布了InternLM2.5,有3大亮点:

  • 推理能力大幅提升,领先于国内外同量级开源模型,在部分维度上甚至超越十倍量级的 Llama3-70B;

  • 支持 1M tokens 上下文,能够处理百万字长文;

  • 具有强大的自主规划和工具调用能力,比如可以针对复杂问题,搜索上百个网页并进行整合分析。

Github仓库:https://github.com/InternLM/InternLM

InternLM2的体系:面向不同的使用需求,采用不同的规格,每个规格包括了3个模型版本。

从7B-20B,包括了Base、LM2和Chat版本。Base属于高质量、可塑性强的基准模型,适合在深度领域适配;LM2在多个能力方向强化,保持了很好的通用语言能力,更加推荐使用;Chat经过SFT、RLHF,面相对话交互进行了优化,具有很强的指令遵循、共情聊天和调用工具的能力。

回归语言建模的本质:采用新一代数据清洗过滤技术,包括多维度数据价值评估、高质量语料驱动的数据集和有针对的数据补齐。

主要亮点:

  • 20W Token超长上下文
  • 推理、数学和代码能力比肩GPT
  • 精准指令遵循
  • 可靠支持工具、复杂智能体搭建
  • 强大的内生计算能力,加入了代码解释

性能全方面提升,比肩GPT3.5

使用例子:

工具调用能力升级

代码解释器可以求解一些积分等大学级别数学题目

从模型到应用典型流程

开放的高质量语料数据:书生万卷CC,基于互联网的开放内容,来源多样,安全性高

预训练优化工具,可以支持主流生态,开箱即用

微调Xtuner,增量续训和有监督的微调

最低8GB显存的显卡就可以微调

司南大模型评分体系

CompassRank:中立全面的性能榜单

评测工具链

部署工具:LMDeploy

全链条体系

  • 5
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值