一、InternLM模型简介
2023年7月6日,在2023世界人工智能大会(WAIC)科学前沿全体会议上,深度学习与计算机专家、上海人工智能实验室教授、香港中文大学教授林达华,发布了“书生通用大模型体系”(以下简称“书生大模型”),包括书生·多模态、书生·浦语InternLM和书生·天际LandMark等三大基础模型,以及首个面向大模型研发与应用的全链条开源体系。当天,正式开源的版本为一个70亿参数的轻量级InternLM-7B,在包含40个评测集的全维度评测中展现出卓越且平衡的性能,全面领先现有开源模型。
2024年1月17日,发布了 InternLM2-7B 和 InternLM2-20B 以及相关的对话模型,InternLM2 在数理、代码、对话、创作等各方面能力都获得了长足进步,综合性能达到开源模型的领先水平。
InternLM2具有以下新能力:
- 有效支持20万字超长上下文:模型在 20 万字长输入中几乎完美地实现长文“大海捞针”,而且在 LongBench 和 L-Eval 等长文任务中的表现也达到开源模型中的领先水平。 可以通过 LMDeploy 尝试20万字超长上下文推理。
- 综合性能全面提升:各能力维度相比上一代模型全面进步,在推理、数学、代码、对话体验、指令遵循和创意写作等方面的能力提升尤为显著,综合性能达到同量级开源模型的领先水平,在重点能力评测上 InternLM2-Chat-20B 能比肩甚至超越 ChatGPT (GPT-3.5)。
- 代码解释器与数据分析:在配合代码解释器(code-interpreter)的条件下,InternLM2-Chat-20B 在 GSM8K 和 MATH 上可以达到和 GPT-4 相仿的水平。基于在数理和工具方面强大的基础能力,InternLM2-Chat 提供了实用的数据分析能力。
- 工具调用能力整体升级:基于更强和更具有泛化性的指令理解、工具筛选与结果反思等能力,新版模型可以更可靠地支持复杂智能体的搭建,支持对工具进行有效的多轮调用,完成较复杂的任务。
二、InternLM全链条开源开放体系
- 数据
汇聚 5400+ 数据集,涵盖多种模态与任务 - 预训练
InternEvo:用于大规模模型预训练和微调的轻量级框架。 - 微调
XTuner:一个有效微调LLM的工具包,支持各种模型和微调算法。 - 部署
LMDeploy:用于量化、部署和服务LLM的工具包。 - 评测
OpenCompass:大型模型评估平台,提供公平、开放和可复制的基准。 - 应用
LAgent:一个轻量级框架,允许用户有效地构建基于LLM的代理。
AgentLego:一个多功能工具API库,用于扩展和增强基于LLM的代理,与LAgent,Langchain等兼容。
OpenAOE:一个优雅的开箱即用的聊天用户界面,用于比较多个模型。
三、自己的看法
- InternLM2前段时间已经使用过,选择它也是看到其支持20万字超长上下文推理。当时使用FastChat进行部署,推理时的上下文长度是达不到20万字的,没想到是要使用配套的推理框架,近期有时间会使用LMDeploy进行测试。额外提一嘴,InternLM2在使用FastChat进行推理时,容易抽风,回答出现循环。
- InternLM2对国内的一些敏感信息做了处理,这个就很棒,在设计垂直应用时可以省掉部分敏感词的过滤
- OpenCompass大型模型评估平台,是第一次接触到,看了一下感觉也很棒,对各种大模型进行了评测,也包括多模态的模型,并且标明了是否开源。