一文读懂国内外开源大模型特性及发展

一文读懂国内外开源大模型特性及发展。

在这里插入图片描述

在 2023 年,大型语言模型(Large Language Models,简称 LLMs)受到了公众的广泛关注,许多人对这些模型的本质及其功能有了基本的了解。是否开源的议题同样引起了广泛的讨论。在 Hugging Face,我们对开源模型抱有极大热情。开源模型的优势在于,它们不仅促进了研究的可复制性,还鼓励社区参与到人工智能模型的开发中来,这样做有助于我们更容易地审视模型中可能存在的偏差和局限性。此外,通过重复利用已有的检查点,我们还能够减少整个领域的碳足迹(这只是 众多优点 中的一部分)。

在这里插入图片描述

🍜 预训练大型语言模型的配方
首先,如何获得一个大型语言模型呢?(如果你对此已有所了解,可以跳过这部分内容。)

模型的 架构(即其代码表示)定义了它的具体实现和数学结构:这包括所有的相关参数,以及这些参数如何与输入数据进行交互。目前,大多数高性能的大型语言模型(LLMs)都是基于 “仅解码器”(decoder-only)的 Transformer 架构的衍生版本,有关原始 Transformer 的详细信息可以参考其 发表的论文。

训练数据集 是模型训练过程中(即参数被学习时)所依赖的全部样本和信息的集合,它使模型能够学习到特定的数据模式。这些数据通常包括多样的文本材料,既可以是各种自然语言文本,如法语、英语、汉语等,也可以是各类编程语言代码,比如 Python、C 语言等,或者是任何能够以文本形式表现的结构化信息,例如 Markdown 或 LaTeX 中的表格、公式等。

分词器 是定义如何将训练数据集中的文本转化为数字的工具(因为模型是一个数学函数,因此需要数字作为输入)。分词是通过将文本转换为称为 “词元” 的子单元(可以是单词、子词或字符,具体取决于分词方法)来完成的。分词器的词汇量大小决定了其能够将文本分割成的不同词元的种类数目,这个数字通常介于 32,000 到 200,000 之间。数据集的规模常常用它包含的 词元数量 来衡量。经过分词后,如今的数据集范围从几千亿词元到几万亿词元不等,这些词元是构成数据集的基本单元。

训练超参数 定义了模型训练的方法。这些参数决定了模型应如何调整自身以适应新的数据样本,以及模型参数更新的速度应该是多快。

一旦确定了这些超参数,接下来需要的就是 1)充足的计算资源来进行模型训练;2)具备专业技能的人员来执行和监督训练过程。训练过程本身包括在训练所用的硬件上初始化模型架构,以及依据前述超参数在训练数据集上应用训练算法。训练的成果是一系列模型权重 —— 这些就是经过学习的 模型参数,也正是人们通常所说的开放获取的预训练模型。这些权重可以用于后续的 推理过程,即对新的输入数据进行预测,例如生成文本。

预训练的大型语言模型(LLM)在完成初始训练后,还可以根据具体任务进行定制化或进一步调整。特别是当这些模型的参数被开放共享时,它们可以作为不同用例和应用的基础,经过一种称为 “微调” 的过程进行优化。微调包括在与原始预训练数据集不同的、通常更小且更专业化的数据集上,对模型执行额外的训练步骤,目的是为了针对特定应用场景优化模型性能。尽管微调步骤在计算资源消耗上有一定成本,但这一成本通常远低于从零开始训练一个全新模型所需的财务投入和环境代价。这也是高品质开源预训练模型极具吸引力的一个原因,它们使得即便是计算预算有限的从业者也能够自由地使用和改进这些模型。

🗝️ 2022 年,从规模竞赛转向数据竞赛
在 2023 年之前,社区有哪些开源模型可用?

直至 2022 年初,机器学习界普遍认为,模型的规模越大(即拥有的参数越多),其性能也越出色。特别是,模型一旦超过某个特定的规模阈值,其能力似乎会实现质的飞跃,这两种现象分别被称为 突现能力 和 规模定律。2022 年推出的多个预训练开源模型家族大多遵循这种范例。

BLOOM (BigScience Large Open-science Open-access Multilingual Language Model)
BLOOM 是由 BigScience 研究团队推出的 一系列模型。BigScience 是一个由 Hugging Face 协调,联合法国的 GENCI 和 IDRIS 组织共同参与的国际合作项目,涵盖了来自 60 个国家、250 个研究机构的 1000 名科研人员。这些模型采用了仅包含解码器的 transformer 架构,并进行了细微调整,比如引入了嵌入后归一化^1 和 ALiBi 位置嵌入[^2] 技术。在这一系列模型中,最大的一个拥有 1760 亿个参数,它接受了 46 种人类语言和 13 种编程语言的 3500 亿个多语言数据词元的训练。大量的训练数据已经向公众开放,包括数据的来源、策划和处理过程的详细信息。它是目前为止发布的最大的开源多语言模型。
OPT (Open Pre-trained Transformer)
Meta 发布的 OPT 模型 系列采用了仅包含解码器的 Transformer 架构。这些模型借鉴了 GPT-3 论文中的技术,如特定的权重初始化和预归一化策略,并对注意力机制进行了改进,比如引入了交替的密集型与局部带状注意力层。系列中最大的模型拥有 1750 亿个参数,其训练数据涵盖了来自公共领域的 1800 亿个数据词元,包括书籍、Reddit 社交平台数据、新闻、维基百科以及其他多种互联网来源。这一系列模型在性能上与 GPT-3 不相上下,并且通过编码优化减少了计算资源的消耗。
GLM-130B (General Language Model)
清华大学联合智谱 AI 共同发布了 GLM-130B 模型。该模型基于完整的 Transformer 架构,并引入了一些创新(如采用 DeepNorm 进行层后归一化、使用旋转式位置嵌入)。GLM-130B 拥有 1300 亿参数,是在包含英文和中文的互联网数据集上训练的,这些数据集包括 The Pile、WuDao 语料库以及其他中文语料库,共计 4000 亿个词元。在性能上,GLM-130B 与 GPT-3 模型不相上下。
较小或更专业的开源大语言模型
近期,一些较小型的开源模型也相继发布,这些模型主要服务于科研领域:Meta 推出了 Galactica 系列的大型语言模型(LLM),其中规模最大的模型拥有高达 120B 参数,这些模型是在科学文献中的 1060 亿个词元基础上进行预训练的。EleutherAI 则发布了 GPT-NeoX-20B 模型,这是一个完全开源的仅解码器式 Transformer 模型(包括模型架构、权重和数据),在 5000 亿词元上经过训练,并采用了 RoPE 以及对注意力机制和初始化过程的若干改进,为科学研究提供了一个完整的工具集。
这些巨大的模型令人振奋,然而,它们的运行成本也高得惊人!在进行推理计算(即从模型中得出预测结果)时,模型必须被加载到内存中,而一个具有一千亿参数的模型往往需要占用高达 220GB 的内存空间(这个过程我们将在后文中详细阐述),这样的内存需求对于大多数机构和专业人士来说都是难以承担的!

然而,2022 年 3 月,DeepMind 发表了一篇 论文,探讨了在固定计算预算条件下,模型参数与数据量的最优配比。简而言之,如果你的模型训练预算有限,应该如何平衡模型大小和数据规模?研究者们发现,在平均计算预算下,对于大型语言模型(LLMs),更高效的策略是维持一个相对较小的模型,并在更广泛的数据集上进行训练。他们开发的模型 Chinchilla(未公开)拥有 700 亿个参数,仅为某些大型模型参数总数的三分之一,却在高达 1.4 万亿个词元的数据集上进行了训练,是其他模型所使用数据量的三到四倍。结果显示,Chinchilla 在性能上不仅媲美甚至超越了其他更大的同类型模型,无论是开源还是非开源的。

这种范式的变化,尽管可能已在封闭的实验室环境中为人所知,但它却让整个开放的科学界感到措手不及。

🌊 2023, 开放发布之年
小型 大语言模型的崛起
2023 年,仅解码器(decoder-only)式的 Transformer 模型迎来了爆发式增长。几乎每月都有新的预训练模型问世,发展速度之快以至于渐渐演变为每周甚至每日都有新模型的推出。Meta 在 2 月推出了 LLaMA 模型;Eleuther AI 在 4 月带来了 Pythia 模型;MosaicML 在 5 月推出了 MPT 模型;Salesforce 和 TIIUAE 则在 6 月分别发布了 X-GEN 和 Falcon 模型。Meta 紧随其后,在 7 月发布了 LLaMA 的升级版本 LLaMA 2。进入下半年,9 月阿里巴巴发布了 Qwen 模型;Mistral.AI 推出了同名 Mistral 模型;01-ai 在 11 月发布了 Yi 模型;Deci 推出了 DeciLM 模型;而 Upstage 则在 12 月带来了 Phi-2 和 SOLAR 模型。这一系列的模型发布,不仅展示了人工智能领域的快速进步,也预示着技术的不断迭代与革新。

这些发布包括了:a) 模型权重(在不同程度的开源许可下);b) 对于较小规模的模型(介于 30 亿至 700 亿参数之间),它们的性能都相当出色,因此立刻被社区采用。这些模型几乎都采用仅解码器的 Transformer 架构,并且进行了各种调整(比如 ALiBi 或 RoPE、RMS 预归一化、SwiGLU),以及对注意力函数的一些改变(如 Flash-Attention、GQA、滑动窗口注意力),并且在不同的代码库实现中进行了优化,以提高训练或推理速度。这些调整很可能在一定程度上影响模型的性能和训练速度;然而,由于所有架构都已经连同权重一起公开发布,剩下的核心差异主要在于训练数据和模型的许可方式。

Meta AI 发布的 LLaMA 系列是该系列中的首款模型。研究团队的目标是在既定的计算预算内训练不同规模的模型,以求达到最优性能。他们首次明确将训练预算与推理成本(即在满足特定性能目标时,模型推理所需的成本)并重考虑。基于这样的考量,他们选择在更大量的数据和更多的训练步骤上,训练规模较小的模型,以期在较小的模型尺度上获得更高的性能(这是对训练计算效率的一种权衡)。在 LLaMA 系列中,最大的模型拥有 650 亿参数,经过了 1.4 万亿的词元训练,而规模较小的模型 —— 分别具有 60 亿和 130 亿参数 —— 则在 1 万亿词元训练后完成。在大多数基准测试中,130 亿参数的 LLaMA 小型模型的表现超过了 GPT-3,而 650 亿参数的 LLaMA 大模型在发布时则代表了最先进的技术水平。然而,这些模型的权重是以非商业许可的形式发布的,这限制了它们在社区中的应用范围。

Eleuther AI 是一个开源的非营利实验室,它发布了一系列名为 Pythia 的大型语言模型(LLMs)。这些模型有不同的规模,全部采用公开数据进行训练,目的是为了帮助研究人员理解大型语言模型训练的不同阶段。有关 Pythia 模型的更多信息,可以通过它们在 Hugging Face 上的 系列合集 查看。

MosaicML 公司在两个月后推出了 MPT 模型,该模型的性能优越,并且支持商业用途,同时公司还公开了其训练的具体细节。MPT 的首个版本是一个 7B 的模型,紧接着在 6 月份,公司发布了一个更大的 30B 版本。这两个模型都是基于 1 万亿个英语和编程语言的词元训练而成,训练数据包括了 C4、CommonCrawl、The Stack、S2ORC 等数据集。

MPT 模型推出后不久,TIIUAE 团队便发布了 Falcon 系列模型 中的 7B 和 30B 版本。这些模型在 1 至 1.5 万亿个英文和代码词元上进行了训练,训练数据包括来自 RefinedWeb、Project Gutenberg、Reddit、StackOverflow、GitHub、arXiv、Wikipedia 等多个来源。同年晚些时候,TIIUAE 还发布了一款更为庞大的 180B 模型。Falcon 模型的细节、所用数据以及训练过程均在一份技术报告及随后发表的 研究论文 中有详尽的描述。

先前的模型在公开时通常会公开其数据集,但随后推出的模型很少公布其训练过程中使用的具体信息,这使得重现它们的成果变得困难。尽管如此,这些模型通过发布它们的权重参数,为研究社区提供了一个研究和进一步开发的起点。

Salesforce 在夏初推出了 X-Gen 模型,这是一款拥有 70 亿参数的模型,训练数据包括了 15 万亿个 “自然语言和代码” 词元,训练过程分为多个步骤,并采用了数据调度系统(并非所有数据同时输入模型)。

X-Gen 在 Meta 推出的更为引人注目的新的 LLaMA-2 家族的阴影下显得有些黯然失色。LLaMA-2 是 Meta 推出的一个新的模型系列,规模从 7B 到 70B 不等,这些模型是在 2 万亿个 “来自公开来源的词元” 上训练而成的,采用了宽松的社区许可证,并经过了人类偏好的精细调整(RLHF),即所谓的对齐过程。

随后,新兴初创企业 Mistral 推出了其首款模型 ——Mistral-7B,该模型 是基于互联网公开数据集的大量数据训练而成,具体数据量尚未公布。随着 2023 年末的临近,模型发布活动日益频繁。Mistral 紧接着发布了更为庞大的第二款模型 Mixtral 8x7B。与此同时,Deci.AI 公司也带来了其令人瞩目的首款模型 DeciLM,upstage 公司也不甘落后,推出了规模更大的 SOLAR 模型。这些模型均采用了来源和数量未公开的数据进行训练。在各大排行榜和公开基准测试中,这些模型均展现出稳步的进步。

在 2023 年年底,值得关注的一大事件是中国训练并公开发布了多个性能显著提升的模型。其中,阿里巴巴推出了其双语(英汉)模型 Qwen 系列,其参数规模从 70 亿 至 700 亿不等,经过了 240 亿词元数据的训练。与此同时,01-AI 公司也发布了 Yi 系列模型,其参数规模介于 60 亿至 340 亿之间,训练数据量达到了 300 亿词元。这些模型在公开排行榜(如 Open LLM leaderboard)以及一些极具挑战性的基准测试(例如 Skill-Mix)中的表现,均超过了之前的模型。2023 年底的另一强有力的新竞争者是 DeepSeek AI,他们推出了 “DeepSeek-Coder”,该模型从零开始训练了 200 亿词元数据,其中包含 87% 的代码和 13% 的英汉混合自然语言。

随处可见的对话模型
2023 年,与前一年相比,几乎所有新发布的预训练模型都配备了预训练版本和对话微调版本,这些版本采纳了多种现有的调整方法。尽管适用于聊天环境的模型调整技术在 2022 年及以前已有所开发,但这些技术在 2023 年得到了广泛应用并迅速兴起,这突显了聊天模型在普罗大众中使用的快速增长,以及通过与模型的互动对其进行的人工评估(即 “氛围检查” 评估)。本文将详细介绍几种著名的训练调整预训练模型以进行聊天的方法,实际上,相关的变体还有很多!

基于对话的微调 是一种特殊形式的监督式微调。在这种方法中,我们使用的标注数据是对话形式的,类似于社交媒体上的多轮对话记录。通过这种方式,可以对模型进行特定的微调。在这个过程中,我们可以采用与模型训练阶段相同的技术。例如,在处理仅解码器 Transformer 模型时,可以训练模型通过自回归方法,即逐一预测接下来的词元。

指令微调(Instruction-based Fine-Tuning,IFT)采用相同的方法,但使用指令数据集,该数据集包含一系列类似查询的提示以及答案(如果需要,还可以包含可选的附加输入)。这些数据集教导模型如何遵循指示,并且可以是人类生成的,也可以是大型语言模型生成的。

利用大规模模型输出的合成数据集(由模型生成的数据集,例如来自 GPT-4 的生成,可以是来自指示或用户与模型之间的交互)是实现指导微调和聊天微调的一种方式。这通常被称为 “蒸馏”,因为它涉及从性能较高的模型中获取知识,以训练或微调较小的模型。

这两种方法都相对容易执行:你只需找到或创建相应的数据集,然后采用与训练时相同的技术对模型进行调整即可。去年,发布了众多指导性数据集,它们有效提升了模型在对话场景中的表现。想要了解更多关于此主题的信息,可以参阅这篇介绍性博文的 链接。然而,尽管模型的性能有了显著提升,但它们仍未能完全达到人类的预期水平。

从人类反馈中强化学习(Reinforcement Learning from Human Feedback,RLHF)是一项旨在使模型输出与人类偏好(基于特定标准)相一致的特定方法。具体操作流程如下:模型根据给定的提示生成多个潜在答案;人类评估者对这些答案进行排序;然后,这些排序结果用于训练一个偏好模型(该模型学习如何给出反映人类对答案偏好程度的评分);最后,利用偏好模型通过强化学习对语言模型进行进一步的微调。更详细的信息,请参阅这篇 博客文章,原始 RLHF 论文,或者 Anthropic 关于 RLHF 的论文。需要注意的是,这是一种成本较高的方法(注释 / 排名 + 训练新模型 + 微调的整个过程成本很高),主要用于确保模型的输出与安全目标相符。为了降低成本,人们开发了一种低成本的变体方法,即利用高质量的语言模型来对模型输出进行评分,而不是完全依赖人类评价,这种方法称为从 人工智能反馈中学习的强化学习(Reinforcement Learning from AI Feedback, RLAIF)。

直接偏好优化(Direct Preference Optimization, DPO)是 RLHF 的另一种变体,其核心优势在于无需训练和运用独立的偏好模型。这一方法同样需要人类或人工智能生成的排序数据集,但它通过直接利用这些数据来更新模型,即通过对比模型现有的策略(即预测行为)与理想的策略(即能够预测出最优排序答案的行为)。换言之,模型本身即扮演了对齐和偏好模型的双重角色,这不仅简化了优化流程,而且根据报告,还能够实现与其他方法相媲美的性能水平。

回到来自(大多数)私企的小型开放权重模型的浪潮,其中很多模型都发布了经过精细调整的对应版本:MPT-7B 还配备了一个指令微调和一个对话版本,Falcon 和 XGen 模型的指令微调版本在年底发布,Llama-2、Qwen 和 Yi 发布了对话版本,DeciLM 则发布了一个指令微调版本。Llama-2 的发布尤其引人注目,因为它在预训练和指令微调模型中都特别注重安全性。

社区的进展如何?
虽然随着新模型的发布,聊天模型和指令微调模型通常会立即推出,但社区成员和研究人员并没有把这看作是理所应当的。在这些基础模型提供的沃土上,涌现出了一个庞大而活跃的微调爱好者社区。这些微调专家经常会构建新的数据集,并对模型进行细致的微调,以此来展现新发布模型的出色性能。

在 2023 年伊始,一些专为指令交互和对话微调设计的数据集已经被发布。例如,代表人类偏好的数据集包括 OpenAI 的 WebGPT 数据集、Anthropic 的 HH-RLHF 数据集以及 OpenAI 的 摘要 数据集,它们在这一领域是开拓者。指令数据集的例子包括 BigScience 的 公共提示池、Google 的 FLAN 1 和 2(FLAN 数据集)、AllenAI 的 自然指令 数据集、由不同机构的研究人员开发的自动生成指令框架 自我指令、由专家创建的指令基准 超自然指令(有时用作微调数据),以及由特拉维夫大学和 Meta 合作生成的自动指令数据集 非自然指令 等。

❄️ 冬 2022/2023: 一月,来自中国多个研究机构的研究人员共同发布了 人类 ChatGPT 指令语料库(HC3),其中包含了人类与模型对各种问题的回答。3 月份,发布活动接连不断:斯坦福大学推出了 Alpaca 模型,这是首个遵循指令的 LLaMA 模型(7B),以及相关的数据集,包括用大型语言模型生成的 52K 条指令。非营利开源实验室 LAION 发布了 开放指令通用数据集(OIG),包含 4300 万条指令,这些指令既有通过数据增强创建的,也有编译自其他现有数据源的。同月,位于加州大学伯克利分校的 LMSYS 组织发布了 Vicuna,这也是一个基于 ChatGPT 聊天数据的 LLaMA 精调模型(13B),这些聊天数据是用户与 ChatGPT 之间的对话,由用户自己公开分享在 ShareGPT 上。还发布了 Guanaco 数据集,它是 Alpaca 数据集的扩展版(增加了 50 万条多语言条目),以及相关的 LLaMA-7B 精调模型。

🌱 春:四月,伯克利人工智能研究实验室(Berkeley AI Research lab,BAIR)发布了 Koala,这是一个经过聊天调优的 LLaMA 模型,它使用了多个先前的数据集(包括 Alpaca、HH-RLHF、WebGPT、ShareGPT),而 DataBricks 则发布了 Dolly 数据集,这是一个由 15K 条人工生成的指令组成的数据集,以及相关的 Pythia 微调模型。五月,清华大学发布了 UltraChat,这是一个包含 1.5M 对话指令的数据集,以及在该数据集上进行微调的 UltraLLaMA 模型。随后,微软发布了 GPT4-LLM 数据集 / 框架,用于生成 GPT4 的指令。六月,微软研究院分享了一种新方法 Orca,通过使用大型模型的推理轨迹(逐步解释其推理过程)来构建指令数据集,该方法很快被社区(尤其是 Alignementlab.ai)复现,他们创建了 Open Orca 数据集,包含数百万条条目,随后用于微调多个模型(如 Llama、Mistral 等)。五月和六月期间,Camel-AI 发布了多个关于不同话题(物理、生物、化学等)的指令或聊天数据集,每个领域都有超过 20K 的示例。同样在六月,发布了 Airoboros 框架,用于使用模型生成的数据微调模型(遵循自我指导方法),以及一系列的 指令数据集。

🌻 夏:八月,由中国的非营利组织 OpenBMB 发布了 UltraLM(一种基于 LLaMA 的高性能聊天模型微调版本),随后在九月,他们又发布了相关的偏好数据集 UltraFeedback,这是一个包含与 GPT4 对比的输入反馈数据集,并附有注释。在整个夏天,一个名为 NousResearch 的集体发布了多个基于私有和公开指导数据集的微调版本(特别是 Hermes 和 Capybara 系列)。九月,清华大学的一个学生团队发布了 OpenChat,这是一个应用了新的强化学习微调策略的 LLaMA 微调版本。

🍂 秋:十月,Hugging Face 发布了 Zephyr 模型,这是一个在 UltraChat 和 UltraFeedback 上使用 DPO 和 AIF 技术对 Mistral 模型进行微调的产物。同时,社区成员发布了 OpenHermes 2,这是一个在来自网络或使用 Axolotl 生成的 900K 条目上对 Mistral-7B 模型进行微调的版本。Lmsys 发布了 LMSYS-Chat-1M,包含了与 25 个大型语言模型(LLMs)的真实用户对话。十一月,OpenBuddy 发布了 OpenBuddy-Zephyr,这是一个对 Zephyr 模型进行微调的多轮对话模型。同月,NVIDIA 发布了 HelpSteer 数据集,这是一个对齐微调数据集,提供了提示、相关模型回应以及基于几个标准对这些回答的评分,而微软研究院则发布了 Orca-2 模型,这是一个在新的合成推理数据集上对 Llama 2 模型进行微调的版本。十二月,伯克利大学发布了 Starling 模型,这是一个对 Open-Chat 模型进行 RLAIF 微调的版本,以及相关的数据集 Nectar,包含了 20 万条比较数据。

正如我们看到的,今年整个领域的发展既依赖于通过使用高质量的预训练大型语言模型(LLMs)创建新数据集,也依赖于社区发布的各种开源模型,这使得该领域进步飞速!如果你现在在模型名称中看到这些名字中的任何一个,你就能够大概了解它的来源了🤗。

还有一些更专业的数据集,例如用于数学问题微调的 MetaMath 和 MathInstruct,以及涉及数学和代码指令的 Evol-Instruct,还有 CodeAlpaca 与 CodeCapybara 等代码指令相关的数据集也已发布。虽然这些数据集同样被用于提升模型在特定任务上的表现,但我们在此不会详细介绍它们。你还可以访问 令人心动的指令数据集 来查看其他相关数据集的集合。*
开启定制模型的大门
模型融合:极致的定制化
在开源社区的典范实践中,一个重要的里程碑是模型与数据的融合。随着每一次代码合并或提交,追溯所使用数据的来源变得愈发复杂 —— 许多公开的数据集本身就是其他数据集的汇编。同样,由于卓越性能的模型往往是在相似模型的基础上经过层层微调得来的(可参考 Mistral 的 衍生模型树),模型的发展历史也变得难以梳理。在这篇摘要中,我们尚未有足够的篇幅深入探讨这一引人入胜的技术领域,但在最后,我们将简要介绍一下它的概念。

然而,“模型融合” 究竟是什么意思呢?

模型融合 是一种将不同模型的权重融合到一个单一模型中的方法,其理想目标是将每个模型的各自优势结合在一个统一的模型中。目前已有一些技术实现了这一目标,这些技术大多在社区论坛中得到扩展和发布,这是一个全球范围内的去中心化研究的典型案例,涵盖了从业者、研究人员到业余爱好者的广泛社区。其中一种最简单的公开方法是平均一组具有共同架构的模型的参数(示例 1,示例 2),但还存在更复杂的参数组合方法,例如确定每个模型中对特定任务最有影响力的参数(加权平均),或者在合并前考虑模型间参数的相互干扰,从而选择保留哪些参数(关联融合)。

这些技术使任何人都能轻松地生成模型的组合,而且由于大多数现代模型都是基于同一架构的变体,这一过程变得尤为简便。这也是 Open LLM leaderboard 上一些模型名称如 llama2-zephyr-orca-ultra 的原因。这个特定的例子很可能是将 llama2 和 zephyr 模型合并后,再在 orca 和 ultra 数据集上进行微调的结果。通常,更多的细节可以在 Hugging Face 中心的相应模型卡片上找到。

参数高效微调:触手可及的个性化体验
有时候,你可能需要进行更为细致的个性化调整,但受限于硬件显存大小,无法加载完整模型进行微调。其实,你知道吗?微调时并不必须要用到模型的全部。

你或许想尝试一种叫做 参数高效微调(Parameter-Efficient Fine-Tuning,PEFT)的方法。 这项技术首先会冻结你所关注的预训练模型中的参数,然后在其基础上附加一些新的参数层,也就是我们所说的 “适配器”。接下来,你只需对这些专为你的任务设计的轻量级适配器权重进行微调,这些权重远小于原始模型的规模。这样,你仅需分享你的小型适配器权重(以及底层模型)即可!你可以在 这里 探索一系列引人入胜的 PEFT 技术。

量化:模型普及于各处
我们已经看到,性能出色的模型现在形态各异…… 但即便如此,并不意味着它们对所有人都是触手可及的!一个拥有 300 亿参数的模型仅仅加载到内存中(还未开始使用)就可能需要超过 66GB 的 RAM,而并非社区中的每个人都有能力配备这样的硬件。

这就是量化技术的用武之地!量化是一种特殊的技术,它通过改变模型参数的精度来减少模型的大小。

量化是什么意思呢?

在计算机中,数字是以一定的精度存储的,例如 float32、float16、int8 等。精度不仅指明了数字类型(是浮点数还是整数),同时也指出了数字存储所占用的内存大小:例如 float32 是在计算机上以 32 位存储的浮点数。要了解更深入的解释,请参见这个 链接。因此,数据的精度越高,它所占用的物理内存就越多,这是因为需要更多的位来存储这些数据。

因此,如果你降低精度,就会减少模型参数在存储上占用的内存,进而减小模型的大小!这也意味着你降低了计算的实际精度,可能会降低模型的性能。然而,我们发现,在较大的模型上,这种性能下降实际上是 非常有限 的。

回到我们之前的例子中,一个含有 300 亿参数的模型,在使用 float16 格式时需要不到 66GB 的内存。如果采用 8bit,内存需求将减半至 33GB;若使用 4bit 编码,则只需大约 16GB,进一步降低了内存的要求,使得模型更易于部署和使用。

精度转换有多种方法,涉及不同的 “转换” 策略,每种策略都有其独特的优势和局限。目前流行的转换方法包括 bitsandbytes、GPTQ, 和 AWQ 等。有些开发者,例如 TheBloke,甚至正在将所有流行的模型进行转换,以便更容易地被社区使用。所有这些方法都是相对较新并且仍在不断发展之中,我们期待随着时间的推移,这些技术能够取得更多的进步。

接下来呢?
年尾尚未到来!在这最后时刻,已经迎来了一些惊喜:新的架构是否终将超越简单高效的 Transformer 模型呢?

最新发布包括:

混合专家模型:
Mixtral,该模型由 8 个子模型(仅解码器的 Transformer 模型)组成,对于每个输入,一个路由器会选择两个最佳子模型并将它们的输出求和。
几种状态空间模型(通过潜在空间将输入映射到输出的模型,可以根据任务需求表达为 RNN 或 CNN):
Mamba,增加了选择机制的状态空间模型
Striped Hyena,具有快速卷积核的状态空间模型
目前来说,这些新方法是否会取代 Transformer 模型还为时尚早,但状态空间模型确实非常有前景!

要点回顾
今年,从大型企业到初创公司,再到研究实验室,各种主体纷纷开放发布模型,这极大地赋能了社区,使其以前所未有的速度开始进行实验和探索。
模型公告的开放性呈现出起伏变化,从年初的公开发布(数据集组合、权重、架构)到年末对训练数据守口如瓶,导致无法复现。
开源模型出现在包括中国在内许多新的地方,有几个新的参与者将自己定位为语言模型竞争中的强劲竞争者。
个性化定制的可能性达到了前所未有的高度,新策略的出现(如强化学习优化的微调、适配器、合并技术),虽然这仅仅是个开始。
更小的模型尺寸和量化升级使得大型语言模型对更多人来说变得真正唾手可得!
新的架构也随之出现 —— 它们是否最终会取代 Transformer 架构,仍是一个值得关注的问题。

百模大战,最备受期待的一位选手,终于正式亮相!

它便是来自李开复博士创办的AI 2.0公司零一万物的首款开源大模型——Yi系列大模型:

Yi-34B和Yi-6B。

虽然Yi系列大模型出道时间相对较晚,但从效果上来看,绝对称得上是后发制人。

一出手即问鼎多项全球第一:

Hugging Face英文测试榜单位居第一,以34B的大小碾压Llama-2 70B和Falcon-180B等一众大尺寸大模型;
唯一成功登顶HuggingFace的国产大模型;
C-Eval中文能力排行榜位居第一,超越了全球所有开源模型;
MMLU、BBH等八大综合能力表现全部胜出;
拿下全球最长上下文窗口宝座,达到200K,可直接处理40万汉字超长文本输入。
……

值得注意的是,零一万物及其大模型并非是一蹴而就,而是酝酿了足足半年有余。

由此不免让人产生诸多疑问:

例如为什么要憋半年之久的大招,选择在临近岁末之际出手?

再如是如何做到一面世即能拿下如此之多的第一?

带着这些问题,我们与零一万物做了独家交流,现在就来一一揭秘。

击败千亿参数大模型

具体来看,零一万物最新发布开源的Yi系列大模型主要有两大亮点:

“以小博大”击败千亿参数模型
全球最长上下文窗口支持40万字
在Hugging Face英文测试公开单 Pretrained 预训练开源模型排名中,Yi-34B以70.72分数位列全球第一,超过了LLaMA-70B和Falcon-180B。

要知道,Yi-34B的参数量仅为后两者的1/2、1/5。不仅“以小博大”问鼎榜单,而且实现了跨数量级的反超,以百亿规模击败千亿级大模型。

其中在MMLU(大规模多任务语言理解)、TruthfulQA(真实性基准)两项指标中,Yi-34B都大幅超越其他大模型。

△Hugging Face Open LLM Leaderboard (pretrained) 大模型排行榜,Yi-34B高居榜首(2023年11月5日)
聚焦到中文能力方面,Yi-34B在C-Eval中文能力能力排行榜上超越所有开源模型。

同样开源的Yi-6B也超过了同规模所有开源模型。

△C-Eval 排行榜:公开访问的模型,Yi-34B 全球第一(2023年11月5日)
在CMMLU、E-Eval、Gaokao三个主要中文指标上,明显领先于GPT-4,彰显强大的中文优势,对咱们更知根知底。

在BooIQ、OBQA两个问答指标上,和GPT-4水平相当。

另外,在大模型最关键评测指标MMLU(Massive Multitask Language Understanding,大规模多任务语言理解)、BBH等反映模型综合能力的评测集上,Yi-34B在通用能力、知识推理、阅读理解等多项指标评比中全面超越,与Hugging Face评测高度一致。

△各评测集得分:Yi 模型 v.s. 其他开源模型
不过在发布中零一万物也表示,Yi系列模型在GSM8k、MBPP的数学和代码测评中表现还不及GPT模型。

这是因为团队希望在预训练阶段先尽可能保留模型的通用能力,所以训练数据中没有加入过多数学和代码数据。

目前团队正在针对数学方向展开研究,提出了可以解决一般数学问题的大模型MammoTH,利用CoT和PoT解决数学问题,在各个规模版本、内外部测试集上均优于SOTA模型。其中MammoTH-34B在MATH上的准确率达到44%,超过了GPT-4的CoT结果。

后续Yi系列也将推出专长代码和数学的继续训练模型。

而除了亮眼的刷榜成绩外,Yi-34B还将大模型上下文窗口长度刷新到了200K,可处理约40万汉字超长文本输入。

这相当于能一次处理两本《三体 1》小说、理解超过1000页的PDF文档,甚至能替代很多依赖于向量数据库构建外部知识库的场景。

超长上下文窗口是体现大模型实力的一个重要维度,拥有更长的上下文窗口则能处理更丰富的知识库信息,生成更连贯、准确的文本,也能支持大模型更好处理文档摘要/问答等任务。

要知道,目前大模型的诸多垂直行业应用中(如金融、法律、财务等),文档处理能力是刚需。

如GPT-4可支持32K、约2.5万汉字,Claude 2可支持100K、约20万字。

零一万物不仅刷新了业界纪录,同时也是首家将超长上下文窗口在开源社区开放的大模型公司。

所以,Yi系列是如何炼成的?

超强Infra+自研训练平台

零一万物表示,Yi系列炼成的秘诀来自两方面:

自研规模化训练实验平台
超强Infra团队
如上二者结合,能让大模型训练过程更加高效、准确、自动化。在多模混战的当下,节省宝贵的时间、计算、人力成本。

它们是Yi系列大模型为何会“慢”的原因之一,但也因为有了它们,所以“慢即是快”。

首先来看模型训练部分。

这是大模型能力打基础的环节,训练数据质量和方法如何,直接关乎模型最终效果。

所以,零一万物自建了智能数据处理管线和规模化训练实验平台。

智能数据处理管线高效、自动、可评价、可扩展,团队由前Google大数据和知识图谱专家领衔。

“规模化训练实验平台”可以指导模型的设计和优化,提升模型训练效率、减少计算资源浪费。

基于这一平台,Yi-34B每个节点的预测误差都控制在0.5%以内,如数据配比、超参搜索、模型结构实验都可以在上面进行。

由此,与过往的“粗放炼丹”训练比较,Yi系列大模型的训练进阶到“训模科学”:变得更加细致、科学化,实验结果可以更加稳定,未来模型规模进一步扩大的速度也能更快。

再来看Infra部分。

AI Infra是指人工智能基础框架技术,它包含了大模型训练、部署方面的各种底层技术设施,包括处理器、操作系统、存储系统、网络基础设施、云计算平台等——是大模型领域绝对的硬技术。

如果说训练环节是为模型质量打地基,那么AI Infra则是为这一环节提供保障,让地基更加牢固,亦是直接关乎大模型底层的部分。

零一万物团队用了一个更加形象的比喻解释:

如果说大模型训练是登山,Infra的能力定义了大模型训练算法和模型的能力边界,也就是“登山高度”的天花板。
尤其在业内算力资源紧张的当下,如何更快、更稳地推进大模型研发,非常关键。

这就是为何零一万物如此重视Infra部分。

李开复也曾表示,做过大模型Infra的人,比作算法的人才还要稀缺。

而零一万物的Infra团队曾参与支持多个千亿级大模型规模化训练。

在他们的支持下,Yi-34B模型训练成本实测下降40%,模拟千亿规模训练成本可下降多达50%。实际训练完成达标时间域预测的时间误差不到1小时——要知道,一般业内都会预留几天时间作为误差。

团队表示,截至目前零一万物Infra能力实现故障预测准确率超过90%,故障提前发现率达到99.9%,无需人工参与的故障自愈率超过95%,能有力保障模型训练顺畅进行。

李开复透露,在完成Yi-34B预训练的同时,零一万物千亿级参数模型训练已正式启动。

而且暗示更大模型的面世速度,很可能超出大家预期:

零一万物的数据处理管线、算法研究、实验平台、GPU 资源和 AI Infra 都已经准备好,我们的动作会越来越快。

后发制人的的零一万物

最后,我们来回答一下最开始我们提到的那几个问题。

零一万物之所以选择在年底搭乘“晚班车”入局,实则与它自身的目标息息相关。

正如李开复在此次发布中所述:

零一万物坚定进军全球第一梯队目标,从招的第一个人,写的第一行代码,设计的第一个模型开始,就一直抱着成为“World’s No.1”的初衷和决心。
而要做到第一,需是得能耐得住性子,潜心修炼扎实的功底,方可在出道之际做到一鸣惊人。

不仅如此,在零一万物成立之际,它的出发点便与其它大模型厂商有着本质的不同。

零一代表的是整个数字世界,从零到一,乃至宇宙万物,所谓道生一……生万物,寓意 “零一智能,万物赋能” 的雄心。

这也与李开复关于AI2.0的思考判断一以贯之,在ChatGPT带动大模型热潮之后,他就曾公开表示过:

以基座大模型为突破的AI 2.0时代,将掀起技术、平台到应用多个层面的革命。如同Windows带动了PC普及,Android催生了移动互联网的生态,AI2.0将诞生比移动互联网大十倍的平台机会,将把既有的软件、使用界面和应用重写一次,也将诞生新一批AI-first的应用,并催生由AI主导的商业模式。
理念就是AI-first,驱动力是技术愿景,背靠卓越的中国工程底蕴,突破点是基座大模型,覆盖范围包含技术、平台到应用多个层面。

为此,零一万物从成立以来选择的创业路线便是自研大模型。

虽说发布时间较晚,但在速度上绝对不算慢。

例如在头三个月的时间里,零一万物就已经实现了百亿参数规模的模型内测;而再时隔三个月,便可以用34B的参数规模解锁全球第一。

如此速度,如此高目标,定然也是离不开零一万物背后雄厚的团队实力。

零一万物由李开复博士亲自挂帅、任CEO。

在早期阶段,零一万物已经聚集起了数十名核心成员的团队,集中在大模型技术、人工智能算法、自然语言处理、系统架构、算力架构、数据安全、产品研发等领域。

其中已加入的联创团队成员包含前阿里巴巴副总裁、前百度副总裁、前谷歌中国高管、前微软/SAP/Cisco/副总裁,算法和产品团队背景均来自国内外大厂。

以算法和模型团队成员为例,有论文曾被GPT-4引用的算法大拿,有获得过微软内部研究大奖的优秀研究员,曾获得过阿里CEO特别奖的超级工程师。总计在ICLR、NeurIPS、CVPR、ICCV等知名学术会议上发表过大模型相关学术论文100余篇。

而且零一万物在成立之初便已经开始搭建实验平台,构建了个数千卡GPU集群,进行训练、调优和推理。在数据方面,主打一个提高有效参数量和使用的高质量数据密度。

由此,不难看出零一万物Yi系列大模型敢于后发制人的底气何在了。

据了解,零一万物接下来还将Yi系列大模型为基础,快速迭代开源更多量化的版本、对话模型、数学模型、代码模型和多模态模型等。

总而言之,随着零一万物这匹黑马的入局,百模大战已然变得更加激烈与热闹。

OpenAI借助ChatGPT所点燃的大语言模型(LLM)之火已在全球范围内燃烧了4个月有余,而在此期间,OpenAI与微软所推出的一系列基于GPT3.5或GPT4模型的AI产品也纷纷在不同领域取得了亮眼的表现。

然而令人略感失望的是,作为如今LLM圈内绝对的领头羊,OpenAI并没有遵从其创立初衷,无论是ChatGPT早期所使用的的GPT3、GPT3.5还是此后推出的GPT4模型,OpenAI都因“暂无法保证其不被滥用”为由拒绝了对模型开源,开启了订阅付费模式。

对于大型科技企业而言,不管是出于秀肌肉还是出于商业竞争目的,自研LLM都是一条几乎无可避免的道路。但对于缺少算力和资金的中小企业以及希望基于LLM开发衍生产品的开发者来说,选择开源显然是更理想的一条路线。

那么就目前来看,在LLM领域,都有哪些优质的开源模型可供选择?开源与闭源的运作模式又会对模型的迭代产生哪些影响呢?本文将带你一睹LLM圈优质开源模型的最新信息。

1、Meta:LLaMA,生态发展蓬勃
几周前,MetaAI推出了大语言模型LLaMA,其不同版本包括70亿、130亿、330亿和650亿的参数,虽然比GPT3还小,但LLaMA在许多任务上的性能都能够追平甚至超越GPT3。

更值得注意的是,作为体量更小的模型,LLaMA不需要太多资源就能流畅运行,且LLaMA的训练成本及训练速度都要优于GPT3.5。

图片

而有趣的是,LLaMA起初并未开源,但在发布后不久,模型便在4chan论坛上泄露了。然而这个乌龙事件却也使LLaMA因祸得福,在“被迫”开源后,LLaMA引发了大量开发者的关注,基于其构建的模型也如雨后春笋般诞生。这场本应是不幸的事情也使得LLaMA成为了如今LLM领域最具影响力的创新来源之一。

项目地址:github.com/facebookresearch/llama

2、斯坦福大学:Alpaca,性价比拉满
Alpaca是斯坦福大学通过Meta的LLaMA 70亿微调而成的全新模型,仅使用了52k数据,但其性能却基本达到了GPT3.5的水平。而Alpaca的关键优势则在于低到出奇的训练成本——仅需不到600美元。

斯坦福大学的研究人员表示,Alpaca表现出了许多类似于OpenAI的GPT3模型的行为,但相比于GPT3,Alpaca的体积更小且各项能力更易于重现。

图片

截至目前,斯坦福团队已在GitHub上开源了Alpaca模型微调所用到的数据集和代码,并提供了一个在线演示网站供用户体验。数据集包含了5.2万个由OpenAI API生成并人工筛选过后的问题-答案对。代码则基于华盛顿大学去年提出的Self-Instruct方法,让AI自己从种子任务中组合出新任务,并生成相应答案。

项目地址:https://github.com/tatsu-lab/stanford_alpaca

3、Databricks:Dolly2.0,全开源可商用
没错,这个模型正是借用了克隆羊Dolly的名字。4月12日,Databricks发布了Dolly 2.0大型语言模型。Databricks表示,Dolly2.0是业内第一个开源、指令跟随型LLM,其在透明免费的数据集上进行微调,可用于研究和商业用途。此外,Databricks还发布了Dolly 2.0在其上进行微调的数据集,称为databricks-dolly-15k。

图片

作为Dolly模型的升级版,Dolly2.0使用了基于 EleutherAI的Pythia模型家族中的120亿参数语言模型。虽然由于参数量和数据限制,Dolly2.0的综合性能表现略逊于同类型大模型,但对大部分开发者而言也已经足够了。并且Dolly2.0完全开源及可商用的属性,使其顺理成章的成为中小企业及个人开发者的福音。

项目链接:https://huggingface.co/databricks/dolly-v2-12b

4、Hugging Face:BLOOM,体量惊人
BLOOM是去年由1000多名志愿者在一个名为BigScience的项目中创建的,该项目由AI初创公司Hugging Face利用法国政府的资金运作的。BLOOM拥有1760亿参数,研究人员表示它提供了与GPT3模型相似的准确性和有毒文本生成水平。

作为目前体量最大的开源大型语言模型之一,BLOOM的训练集包含45种自然语言(含中文)和12种编程语言,1.5TB的预处理文本转化为了350B的唯一token。实验证明BLOOM在各种基准测试中都取得了有竞争力的表现,在经过多任务提示微调后也取得了更好的结果。

项目地址:huggingface.co/bigscience/bloom

5、阿卜杜拉国王科技大学MiniGPT4,图像对话能力可观
MiniGPT4是近期由沙特阿拉伯阿卜杜拉国王科技大学研究团队推出的一款全新开源模型。据研究人员透露,MiniGPT4具有许多类似于GPT4的功能。除了可执行复杂的视觉语言任务外,MiniGPT4还拥有与GPT4相似的图片解析功能。

图片

研究团队所发布的论文显示,为了构建MiniGPT4,研究人员使用了基于LLaMA所构建的Vicuna作为语言解码器,并使用BLIP-2视觉语言模型作为视觉解码器,且由于使用开源软件的缘故,MiniGPT可以用较少的数据和费用进行训练和微调。虽然由于模型发布较晚,该模型相关测评并未公布,但据GitHub显示,目前该研究团队已将MiniGPT的代码、预训练模型和数据集进行了开源。

项目地址:github.com/Vision-CAIR/MiniGPT-4

6、Stability AIStableLM,万亿token训练
4月19日,Stability AI发布了一个新的开源语言模型——StableLM。该模型的Alpha版本有30亿和70亿参数,后续还会推出150亿和650亿参数的版本。根据CC BY-SA-4.0许可证的条款,开发人员可以出于商业或研究目的自由检查、使用和修改我们的StableLM基本模型。

图片

据官方介绍,StableLM的构建基于非盈利研究中心EleutherAI所开源的多个语言模型,包括GPT-J,GPT-NeoX等,该模型在The Pile基础上构建的新数据集上进行训练,该数据集包含 1.5 万亿个token。可支持4096的上下文宽度,且RL调试模型可用。

但值得注意的是,该模型并为发布基准测试,也没有发布有关模型的详细信息,其基本型号上也存在一些限制性许可证。并且StableLM会抓取ChatGPT的输出内容,这会违反OpenAI的使用条款,OpenAI有权在收到通知后终止用户的访问。因此,在进行商用时,该模型依然存在一定的潜在风险。

项目地址:github.com/Stability-AI/StableLM/issues

7、元语智能ChatYuan,首个中文开源对话模型
作为首个中文版开源对话模型,元语智能ChatYuan大模型自发布以来便在人工智能社区引发了广泛的讨论。而在近期,元语智能团队再次开源了一个全新ChatYuan系列大模型:ChatYuan-large-v2。

据介绍,ChatYuan-large-v2支持在单张消费级显卡、PC甚至手机上进行推理使用。新版本支持中英双语、支持输入输出总长度最长4k,这也是继此前PromptCLUE-base、PromptCLUE- v1-5、ChatYuan-large-v1模型之后,元语智能的再一力作。

图片

技术方面,ChatYuan-large-v2使用了和v1版本相同的方案,并在指令微调、人类反馈强化学习、思维链等方面进行了优化。作为ChatYuan系列模型中的代表,ChatYuan-large-v2仅通过7亿参数量可以实现业界100亿参数模型的基础效果。

项目地址:https://github.com/clue-ai/ChatYuan

8、清华大学ChatGLM,开辟小而精方向
ChatGLM是由清华技术成果转化的公司智谱AI开发的开源、支持中英双语的对话语言模型,基于General Language Model (GLM) 架构研发,拥有62亿参数,支持在单张消费级显卡上进行推理使用,在保障平民消费能力的情况下,具有小而精的特点。

ChatGLM当前版本模型的能力提升主要来源于独特的千亿基座模型GLM-130B。其不同于BERT、GPT-3以及T5架构,包含多目标函数的自回归预训练模型。研发团队参考了ChatGPT的设计思路,为ChatGLM在基座模型GLM-130B中注入了代码预训练,通过有监督微调等技术实现人类意图对齐。

从具体数据及测试表现来看,ChatGLM具备兼具双语能力;易微调、部署门槛低;支持长对话与应用以及内容输出格式简单等优势。但由于模型容量较小,ChatGLM也不可避免的存在着模型记忆和语言能力较弱;可能产生错误内容和多轮对话能力不足等一些缺点。

项目地址:github.com/THUDM/ChatGLM-6B

9、昆仑万维天工系列模型,新模型实现智能涌现
去年年底,昆仑万维发布了昆仑天工系列模型并宣布模型开源,包括天工巧绘SkyPaint、天工乐府SkyMusic、天工妙笔SkyText、天工智码SkyCode,分别涉及AI图像、AI音乐、AI文本、AI编程方面,目前已经有中国移动、咪咕等企业测试使用。

而就在近日,昆仑万维再次发布了最新迭代升级的大语言模型天工3.5。据官方表示,天工3.5是第一个实现智能涌现的国产大语言模型,已“非常接近ChatGPT的智能水平”,可满足文案创作、问答、代码生成、逻辑推理与数理推算等需求。

图片

10、大模型时代:开源vs闭源
PC时代,Linux打破了Wintel联盟的垄断;在iOS的封闭生态和Android的准封闭生态下,开源RISC-V实现了异军突起。开源从始至终都意味着自由开放、意味着全球开发者能够同时贡献和维护所带来的迭代效率与风险控制。

在大模型时代,开源与闭源的问题被再次搬上桌面。从短期角度讲,无论是出于安全性、版权问题还是商业竞争的考量,OpenAI或是其他拥有大模型的科技企业选择闭源都无可厚非。但从长期角度出发,对于每个大模型以及整个领域的发展而言,开源生态所带来的帮助势必将超越企业本身。

回首往昔,Linux的成功,并不是依靠技术的先进性击败了其他操作系统,而是借助蓬勃的开源生态在激烈的市场竞争中占据了主导地位。而这样的故事在今天或是未来是否依然会继续发生,就让我们一起拭目以待。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

代码讲故事

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值