书生·浦语大模型全链路开源体系
相较于第一期实战营的本节课程内容,本次课程主要新增了对书生·浦语 2.0(InternLM2)的介绍。
InternLM2 模型体系
面对不同的使用需求,发布了 7B 和 20B 两种规格的模型,而每种规格又包含 3 种模型版本。
- 两种规格
7B: 为轻量级的研究和应用提供了一个轻便但性能不俗的模型
20B:模型的综合性能更为强劲,可有效支持更加复杂的实用场景 - 三种版本
InternLM2-Base:高质量和具有很强可塑性的模型基座是模型进行深度领域适配的高质量起点
InternLM2:在 Base 基础上,在多个能力方向进行了强化,在评测中成绩优异,同时保持了很好的通用语言能力,是我们推荐的在大部分应用中考虑选用的优秀基座
InternLM2-Chat:在 Base 基础上,经过 SFT 和 RLHF,面向对话交互进行了优化,具有很好的指令遵循、共情聊天和调用工具等的能力
相较于 InternLM,InternLM2 回归语言建模的本质,在数据上下了更多的功夫:
- 多维度数据价值评估
基于文本质量、信息质量、信息密度等维度对数据价值进行综合评估与提升 - 高质量语料驱动的数据富集
利用高质量语料的特征从物理世界、互联网以及语料库中进一步富集更多类似语料 - 有针对性的数据补齐
针对性补充语料,重点加强世界知识、数理、代码等核心能力
InternLM2 主要亮点
性能全方位提升
InternLM2 在各能力维度全面进步,在推理、数学、代码等方面的能力提升尤为显著,综合性能达到同量级开源模型的领先水平,在重点能力评测上 InternLM2-Chat-20B 甚至可以达到比肩 ChatGPT (GPT-3.5)的水平。
- 超长上下文
模型在 20万 token上下文中,几乎完美实现“大海捞针”。支持200K超长上下文,一次可读30万汉字。 - 综合性能全面提升
推理、数学、代码提升显著,InternLM2-Chat-20B在重点评测上比肩ChatGPT - 优秀的对话和创作体验
精准指令跟随,丰富的结构化创作,在AlpacaEval2超越GPT3.5和Gemini Pro - 工具调用能力整体升级
可靠支持工具多轮调用,复杂智能体搭建 - 突出的数理能力和实用的数据分析功能
强大的内生计算能力,加入代码解释后,在GSM8K和MATH达到和GPT-4相仿水平
书生·浦语大模型全链路开源体系
这部分内容与一期课程基本相同。
书生·浦语大模型全链路开源体系一期笔记