书生·浦语大模型全链路开源体系

本文介绍了书生·浦语的大模型体系InternLM2,包括不同规格的7B和20B模型,以及它们在性能、对话交互等方面的增强。文章强调了InternLM2回归语言本质,通过多维度数据提升和针对性补充,使其综合性能达到领先水平。
摘要由CSDN通过智能技术生成

相较于第一期实战营的本节课程内容,本次课程主要新增了对书生·浦语 2.0(InternLM2)的介绍。

InternLM2 模型体系

面对不同的使用需求,发布了 7B 和 20B 两种规格的模型,而每种规格又包含 3 种模型版本。

  • 两种规格
    7B: 为轻量级的研究和应用提供了一个轻便但性能不俗的模型
    20B:模型的综合性能更为强劲,可有效支持更加复杂的实用场景
  • 三种版本
    InternLM2-Base:高质量和具有很强可塑性的模型基座是模型进行深度领域适配的高质量起点
    InternLM2:在 Base 基础上,在多个能力方向进行了强化,在评测中成绩优异,同时保持了很好的通用语言能力,是我们推荐的在大部分应用中考虑选用的优秀基座
    InternLM2-Chat:在 Base 基础上,经过 SFT 和 RLHF,面向对话交互进行了优化,具有很好的指令遵循、共情聊天和调用工具等的能力

相较于 InternLM,InternLM2 回归语言建模的本质,在数据上下了更多的功夫:

  • 多维度数据价值评估
    基于文本质量、信息质量、信息密度等维度对数据价值进行综合评估与提升
  • 高质量语料驱动的数据富集
    利用高质量语料的特征从物理世界、互联网以及语料库中进一步富集更多类似语料
  • 有针对性的数据补齐
    针对性补充语料,重点加强世界知识、数理、代码等核心能力

InternLM2 主要亮点

性能全方位提升
InternLM2 在各能力维度全面进步,在推理、数学、代码等方面的能力提升尤为显著,综合性能达到同量级开源模型的领先水平,在重点能力评测上 InternLM2-Chat-20B 甚至可以达到比肩 ChatGPT (GPT-3.5)的水平。

  • 超长上下文
    模型在 20万 token上下文中,几乎完美实现“大海捞针”。支持200K超长上下文,一次可读30万汉字
  • 综合性能全面提升
    推理、数学、代码提升显著,InternLM2-Chat-20B在重点评测上比肩ChatGPT
  • 优秀的对话和创作体验
    精准指令跟随,丰富的结构化创作,在AlpacaEval2超越GPT3.5和Gemini Pro
  • 工具调用能力整体升级
    可靠支持工具多轮调用,复杂智能体搭建
  • 突出的数理能力和实用的数据分析功能
    强大的内生计算能力,加入代码解释后,在GSM8K和MATH达到和GPT-4相仿水平

书生·浦语大模型全链路开源体系

这部分内容与一期课程基本相同。
书生·浦语大模型全链路开源体系一期笔记

补充资料

  • 3
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值