大型语言模型 (LLM)类型和示例

大型语言模型(LLM)是生成式人工智能的重要支柱,由于能够处理海量文本并生成准确的结果,因此在自然语言处理(NLP)领域越来越受到重视。众所周知,LLM 依靠复杂的算法(包括转换器架构)在大型数据集上进行转换,并识别单词级别的模式。这些数据有助于 LLMs 更好地理解自然语言及其在上下文中的使用方式,然后对各种 NLP 任务(如文本生成、摘要、翻译、文本分类,甚至高精度地回答问题)进行预测。

在自然语言处理(NLP)领域,大型语言模型(LLM)(如 GPT 和 BERT 系列)比早期的神经网络架构(如循环神经网络(RNN))有了长足的进步。以下是多年来推出的 LLM 数量的变化趋势。

     ![](https://mmbiz.qpic.cn/sz_mmbiz_png/yuPhvo1kJK7TJHq64CXuliaWWZtiazE8xO7gxnruiaVicnM3Uo7LjFBGiaflzdd8RFJlVI9iamQNHV19w3BgOOLFWgKQ/640?wx_fmt=png&from=appmsg) 

本博文旨在全面介绍大型语言模型、其重要性以及在各种 NLP 任务中的应用。我们将讨论这些不同 LLM 模型的工作原理、LLM 示例以及创建模型所涉及的训练过程。在本篇博文结束时,您应该能够充分理解为什么大型语言模型是当今人工智能/生成式人工智能应用的重要组成部分。

目录

1.什么是大型语言模型(LLM)?为什么称为 “大型”?

1.1.注意机制:LLM的基础

2.1.用于 LLM 的神经网络架构构件

2. LLM 类型与变压器架构:示例

3.不同的 LLM 模型和用例场景

3.1.自回归 LLM 示例

3.2.自动编码 LLM 示例

4.LLM 如何运作?关键组成部分

5.大型语言模型 (LLM) 列表:示例

6.何时使用LLM?我的项目需要LLM吗?

7.行业应用案例 LLM 示例

7.1.客户服务自动化

7.2.内容创建和编辑

7.3.语言翻译和本地化

7.4.教育与研究

7.5.数据分析和商业智能

8.基于代币的 LLM 和嵌入式定价

9.学习型LLM白皮书

10.常见问题 (FAQ)

11.结论

1. 什么是大型语言模型(LLM)?为什么称为 “大型”?

大型语言模型(LLM)是一类深度学习模型,旨在处理和理解海量自然语言数据。简单地说,大型语言模型可以定义为人工智能/机器学习模型,它们试图解决与文本生成、摘要、翻译、问答(Q&A)等相关的 NLP 任务,从而实现更有效的人机交流。这就是为什么 LLM 需要处理和理解海量文本数据,并学习句子中单词之间的模式和关系。

大型语言模型(LLM)之所以被称为 “大型”,是因为它们在大型文本语料库中预先训练了大量参数(1 亿多个),用于处理/理解和生成自然语言文本,以完成各种 NLP 任务。LLM 系列包括 BERT(NLU–自然语言理解)、GPT(NLG–自然语言生成)、T5 等。特定的 LLM 模型,如 OpenAI 的模型(GPT3.5、GPT-4 - 千亿参数)、PaLM2、Llama 2 等,在前面提到的各种 NLP/文本处理任务中表现出了卓越的性能。这些 LLM 中有些是开源的(Llama 2),有些则不是(如 ChatGPT 模型)。

1.1. 注意机制(Attention mechanism):LLM的基础

LLM 建立在神经网络架构上,尤其是转换器架构,这使其能够捕捉大规模文本数据集中复杂的语言模式以及单词或短语之间的关系。LLM 也可以理解为转换器架构的变体。转换器架构依赖于注意力机制,如自我注意力和多头注意力,这使得模型能够通过权衡特定上下文中不同单词或短语的重要性来理解文本中单词之间的关系。

  • 自我注意机制是一种允许输入序列中的每个位置关注同一序列中所有位置的机制。换句话说,它有助于模型通过考虑整个序列来理解和解释一个序列。例如,在处理一个句子时,自我注意机制可以将每个单词与该句子中的其他单词联系起来。

  • 转换器中的多头注意或多头自我注意代表了多个注意头,每个注意头学习一种独特的注意机制,从而使整个层能够学习更复杂的关系。

1.2. 用于 LLM 的神经网络架构构件

变压器架构代表了基于编码器-解码器架构的自然语言处理任务的神经网络模型,该模型由 Vaswani 等人在 2017 年发表的论文《Attention Is All You Need》中介绍。变压器架构由两个主要部分组成:编码器网络和解码器网络。

  • 编码器网络接收输入序列并生成隐藏状态序列。例如,编码器网络接收源语言(如英语)中的单词序列。

输入序列示例: 例如,考虑句子 “猫坐在垫子上”。

输入处理: 编码器逐字处理该序列。首先将每个单词转换成代表其含义的数字形式(如向量)。这通常是通过单词嵌入来实现的。

隐藏状态序列: 在处理每个单词时,编码器会使用自我注意机制来理解每个单词与句子中其他单词的上下文关系。这就产生了一系列隐藏状态,每个状态都是一个向量,用来编码句子中某个单词的上下文信息。例如,"cat "的隐藏状态不仅包含 "cat "的含义,还包含它与句子中 “sat”、“on”、"the "和 "mat "的关系。

  • 解码器网络接收目标序列,并利用编码器的输出生成预测序列。

翻译任务示例: 举例来说,解码器网络的目标是生成目标语言(如法语)的译文。它从一个起始标记(如"")开始,每次生成一个单词。

使用编码器的输出: 解码器利用编码器产生的隐藏状态序列来理解源句的上下文。

预测序列: 对于生成的每个单词,解码器都会使用交叉注意机制来关注编码器输出的不同部分。这有助于解码器找出英语句子中哪些单词与当前要预测的法语单词最相关。例如,在将 "The cat sat on the mat "翻译成法语时,解码器在尝试预测法语中的 "cat "一词时,可能会关注 "cat "的隐藏状态。

迭代过程: 这一过程是迭代式的。每生成一个法语单词,解码器就会更新其状态并进行下一次预测,直到整个句子翻译完毕。

2. LLM 类型与变压器架构:示例

原始的变压器模型由编码器和解码器模块组成,这些模块由多层自注意、交叉注意和前馈神经网络构成,不同类型的 LLM 可根据其预期应用使用变压器架构的各种变体。更多详情,请查看这篇文章–变压器架构类型:举例说明。下图是原始的变压器架构,代表了一系列多头注意力机制和前馈网络。

基于上述变压器架构,有三种不同的 LLM 类型,分别使用编码器、解码器或同时使用两种网络。

  • 自回归语言模型(如 GPT): 自回归模型主要使用 Transformer 架构的解码器部分,因此非常适合文本摘要、生成等自然语言生成(NLG)任务。这些模型通过预测前一个词序列中的下一个词来生成文本。这些模型经过训练,可以根据上下文最大化训练数据集中每个单词的可能性。最著名的自回归语言模型是 OpenAI 的 GPT(生成预训练转换器)系列,其中 GPT-4 是最新、最强大的迭代。基于解码器网络的自回归模型主要利用与自注意、交叉注意机制和前馈网络相关的层作为其神经网络架构的一部分。

  • 自动编码语言模型(如 BERT): 自动编码模型则主要使用变换器的编码器部分。它专为分类、问题解答等任务而设计。这些模型通过从屏蔽或损坏的原始输入版本中重建原始输入,学习生成固定大小的输入文本向量表示(也称为嵌入)。经过训练,这些模型可以利用周围的上下文预测输入文本中的缺失词或屏蔽词。谷歌开发的 BERT(来自变换器的双向编码器表征)是最著名的自动编码语言模型之一。它可以针对各种 NLP 任务(如情感分析、命名实体识别和问题解答)进行微调。基于编码器网络的自动编码模型主要利用与自注意机制和前馈网络相关的层作为其神经网络架构的一部分。

  • 第三种是自动编码和自回归的结合,如 T5(文本到文本转换器)模型。T5 LLM 由谷歌于 2020 年开发,可以进行自然语言理解(NLU)和自然语言生成(NLG)。T5 LLM 可以理解为一个使用编码器和解码器网络的纯转换器。

3. 不同的 LLM 模型和用例场景

传统的 NLP 算法通常只关注单词的上下文,而 LLM 则会考虑大量文本,以便更好地理解上下文。下面是两个 LLM 示例场景,分别展示了自回归 LLM 和自动编码 LLM 在文本生成和文本补全中的应用。

3.1. 自回归 LLM 示例

让我们举例说明自回归模型是如何工作的。如前所述,自回归模型(如 GPT)会根据给定的输入提示生成一个连贯且与上下文相关的句子。

假设自回归模型的输入如下:

“推出新型智能手机 UltraPhone 3000,旨在”

生成的文本可以是:

“以尖端技术和无与伦比的性能重新定义您的移动体验”。

3.2. 自动编码 LLM 示例

让我们再举一个例子,看看自动编码模型是如何工作的。如前所述,自动编码模型(如 BERT)可用于填补句子中缺失或被掩盖的单词,从而生成一个有语义意义的完整句子。

假设自动编码模型的输入如下:

最新的超级英雄电影故事情节 _______,但视觉效果却是 _______。

完成后的文本将如下所示:

这部最新的超级英雄电影故事情节还算不错,但视觉效果令人震撼。

4. LLM 如何运作?关键组成部分

大型语言模型(LLM)由几个关键构件组成,这些构件使大型语言模型能够高效地处理和理解自然语言数据。

以下是一些关键组件的概述:

  • 令牌化/标记化: 令牌化/标记化是将文本序列转换为模型可以理解的单个词、子词或标记的过程。在 LLM 中,令牌化/标记化通常使用字节对编码(BPE)或 WordPiece 等子词算法来完成。

  • 嵌入: 嵌入是单词或词块的连续向量表示,可捕捉其在高维空间中的语义。它们允许模型将离散的词块转换成神经网络可以处理的格式。在 LLM 中,嵌入是在训练过程中学习的,由此产生的向量表示可以捕捉词与词之间的复杂关系,如同义词或类比。

  • 注意: LLM 中的注意机制,尤其是转换器中使用的自我注意机制,可以让模型权衡给定上下文中不同单词或短语的重要性。通过给输入序列中的标记分配不同的权重,模型可以将注意力集中在最相关的信息上,而忽略不太重要的细节。这种有选择性地关注输入特定部分的能力,对于捕捉长距离依赖关系和理解自然语言的细微差别至关重要。

  • 预训练: 预训练是指在针对特定任务对 LLM 进行微调之前,在大型数据集上对其进行训练的过程,通常采用无监督或自监督的方式。在预训练过程中,模型会学习一般语言模式、词与词之间的关系以及其他基础知识。这一过程会产生一个预训练模型,该模型可以使用较小的特定任务数据集进行微调,从而大大减少了在各种 NLP 任务中实现高性能所需的标注数据量和训练时间。

  • 迁移学习: 迁移学习是一种利用预训练过程中获得的知识,并将其应用于新的相关任务的技术。就 LLM 而言,迁移学习是指在较小的、特定任务的数据集上对预先训练好的模型进行微调,从而在该任务上获得高性能。迁移学习的好处在于,它可以让模型从预训练期间学到的大量通用语言知识中获益,从而减少对大型标注数据集的需求,并减少对每个新任务的大量训练。

5. 大型语言模型 (LLM) 列表:示例

以下是按时间顺序显示的 LLM 版本。浅蓝色矩形代表 "预训练 "模型,深色矩形代表 "指令调整 "模型。上半部分的模型表示开源可用性,而下半部分的模型则表示闭源。

以下是大型语言模型与不同参数的比较列表:

模型

磁盘大小(GB)

内存使用量(GB)

参数(百万)

训练数据大小(GB)

大型 BERT

1.3

3.3

340

20

GPT-2 117M

0.5

1.5

117

40

GPT-2 1.5B

6

16

1,500

40

GPT-3 175B

700

2,000

175,000

570

T5-11B

45

40

11,000

750

RoBERTa-Large

1.5

3.5

355

160

ELECTRA-Large

1.3

3.3

335

20

来源: Quick Start Guide to Large Language Models:

Strategies and Best Practices for Using ChatGPT and Other LLMs

如果您想通过浏览器对 25 个以上 LLM 示例的输出进行比较和排名,请查看 Chatbot Arena Leaderboard (https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard)。排行榜列出了 Gemini Pro、GPT-4-Turbo、GPT-3.5-Turbo、LLaMa-13B 等 LLMs。

6. 何时使用LLM?我的项目需要LLM吗?

决定是否将大型语言模型 (LLM) 整合到您的项目中,需要对各种因素进行仔细评估。凭借我在人工智能和机器学习方面的专业知识,我可以指导您完成这一过程:

  • 明确项目目标: 确定您的项目目标是否符合 LLM 的功能,如高级自然语言处理、上下文理解或生成类人文本。请牢记 LLM 的以下功能,以及您是否需要解决手头的业务问题:

高级自然语言处理(NLP): LLM 可以理解和生成高度复杂的人类语言。这包括情感分析、文本摘要和语言翻译等任务。

语境理解: LLM 的主要优势之一是其理解语言上下文的能力。它们可以从前面的文本中推断出含义,这对于聊天机器人、上下文相关帮助系统和个性化内容生成等应用来说至关重要。

生成类人文本: LLM 可以创建与人类写作非常相似的文本。这对内容创建特别有用,例如撰写文章、生成创意写作或在客户服务应用程序中自动回复。

  • 分析您的数据需求: LLM 在处理大量文本或复杂语言任务时最为有效。请评估您的数据是否需要进行此类高级处理。

  • 团队的技术准备: 评估团队是否具备必要的技术技能。此外,还要考虑部署 LLM 所需的基础设施,如计算资源或云服务。

  • 财务影响与领导支持: LLM 会产生与 API 使用和基础设施相关的成本。权衡这些成本与潜在的效率提升和服务或产品增值至关重要。分析实施 LLM 所涉及的成本(如开发时间、基础设施成本和潜在的 API 费用)与预期收益(如提高效率、准确性或用户满意度)之间的关系。

  • 合规与道德: 使用 LLM 必须符合数据隐私法。此外,道德方面的考虑也至关重要,例如减少语言模型中的偏差。

  • 评估您是否需要 LLM 来解决问题: 有时,更简单或更专业的工具就足够了。评估是否真的有必要使用 LLM,或者是否有不那么复杂的替代方法。

7. 行业应用案例 LLM 示例

大型语言模型具有先进的自然语言处理能力,因此应用广泛。以下是五个最合适、最有影响力的使用案例:

7.1. 客户服务自动化

  • 聊天机器人和虚拟助理: LLM 可以支持复杂的聊天机器人和虚拟助理,提供类似人类的互动。它们可以全天候处理客户咨询、提供支持和信息,从而提升客户体验,减少人力工作量。这种用例适用于不同的行业领域,包括电子商务、银行与金融服务、医疗保健等。

  • 电子邮件和社交媒体回复: 自动回复客户电子邮件和社交媒体查询可大大提高客户服务的响应时间和一致性。许多LLM都习惯于撰写电子邮件,用于不同的目的,包括销售和营销。

7.2. 内容创建和编辑

  • 自动新闻报道和文章写作: LLM可以快速高效地生成新闻文章、博客文章和其他书面内容。它们还可用于整理和总结来自不同来源的内容。

  • 创意写作: 在创意领域,LLM可以协助为故事、剧本和广告文案提供创意、对话甚至整个情节。

7.3. 语言翻译和本地化

  • 多语种翻译: LLM可以提供高质量的多语种翻译,促进全球业务交流,帮助打破语言障碍。

  • 本地化服务: 除翻译外,本地化服务提供商还可以根据特定文化和地区对内容进行调整,确保翻译内容符合当地文化和语境。

7.4. 教育与研究

  • 辅导和教育工具: LLM可用于创建个性化的教育体验,提供辅导、语言学习帮助以及帮助理解复杂的学科。

  • 学术研究: 在研究方面,LLM可以协助进行文献综述、数据分析,甚至起草研究论文或报告。

7.5. 数据分析和商业智能

  • 情感分析: 分析客户反馈、市场趋势和社交媒体帖子,了解公众对各种话题、产品或服务的看法。

  • 商业报告和市场分析: LLM可以将大量数据综合成条理清晰、富有洞察力的商业报告、市场分析和执行摘要。

这些使用案例表明,LLM 在提供解决方案方面具有多功能性,不仅效率高、成本效益高,而且还能提高各行业用户的参与度、创造力和整体决策过程。

8. 基于令牌(Token)的 LLM 和嵌入式定价

以下电子表格包含不同 LLM 及其各自定价结构的信息,它包括每个模型的定价和其他模型的定价,如 “GPT-4”、“Amazon Bedrock”、“Claude 2”、"GPT-4 Turbo "和 “GPT-3.5”。另一个选项卡(如 “嵌入”)包含各种文本嵌入模型及其定价信息。

9. 学习型 LLM 白皮书

白皮书是深入了解大型语言模型领域的概念和进展的绝佳资源。从类神经机器翻译的发展到自然语言生成和理解的最新预训练方法,这些论文提供了语言模型发展的全面视角。下面列出了该领域最具影响力的一些论文原文,供参考:

  • Neural Machine Translation by Jointly Learning to Align and Translate(2014),作者:Bahdanau、Cho 和 Bengio,https://arxiv.org/abs/1409.0473

  • Attention Is All You Need(2017),作者:Vaswani、Shazeer、Parmar、Uszkoreit、Jones、Gomez、Kaiser 和 Polosukhin,https://arxiv.org/abs/1706.03762

  • BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding(2018),作者:Devlin、Chang、Lee 和 Toutanova,https://arxiv.org/abs/1810.04805

  • Improving Language Understanding by Generative Pre-Training (2018),作者:Radford 和 Narasimhan,https://www.semanticscholar.org/paper/Improving-Language-Understanding-by-Generative-Radford-Narasimhan/cd18800a0fe0b668a1cc19f2ec95b5003d0a5035

  • BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension(2019),作者:Lewis、Liu、Goyal、Ghazvininejad、Mohamed、Levy、Stoyanov 和 Zettlemoyer,https://arxiv.org/abs/1910.13461

  • Harnessing the Power of LLMs in Practice: A Survey on ChatGPT and Beyond (2023),作者:Yang、Jin、Tang、Han、Feng、Jiang、Yin 和 Hu, https://arxiv.org/abs/2304.13712

10. 常见问题 (FAQ)

以下是一些关于LLM的常见问题:

  • NLP 和 LLM 有什么区别?

自然语言处理(NLP)是一种人工智能/机器学习技术,用于理解和生成人类语言。它包括语音识别和文本分析等技术。大型语言模型(LLM),如 BERT 和 GPT,属于 NLP 的不同系列,即自然语言理解(NLU)和自然语言生成(NLG)。这些先进的模型在大量文本数据集上进行训练,专门生成连贯且与上下文相关的文本。

  • 最受欢迎的LLM模式有哪些?

最流行的大型语言模型包括 OpenAI 的 GPT 系列(如 GPT-3 和 GPT-4)、谷歌的 BERT 及其变体、T5(文本到文本转换器)、PaEL2、Llama2 等。这些模型因其先进的文本理解和生成能力而脱颖而出。

  • 迁移学习与LLM之间有什么关系?

迁移学习是大型语言模型(LLM)不可或缺的一部分。LLM 最初是在庞大的通用数据集上进行训练,从而获得广泛的语言理解能力,然后针对特定任务或领域对这些知识进行 "迁移 "和微调,从而提高它们在专业应用中的性能,而无需从头开始训练,从而节省时间和资源。

  • ChatGPT 是大型语言模型吗?

ChatGPT 建立在 GPT-3.5、GPT-4 等大型语言模型之上。这些 LLM 属于 GPT(生成预训练转换器)系列,专门设计为自动回归语言模型,这意味着它能根据句子前面的单词预测句子中的下一个单词。ChatGPT 利用庞大的数据集和复杂的算法来理解和生成近似人类语言的回复,展示了自然语言生成 (NLG) 中自动回归大型语言模型的先进功能。

  • 如何评估不同的LLM?

查看斯坦福大学的 HELM 页面 - 语言模型整体评估 (HELM) (stanford.edu)。您可以找到不同 LLM 变体的评估指标,如 GPT-4、Claude、Mixtral、PaLM-2、Llama 2 等。相关的 HELM 论文可在 Arxiv - HELM 上找到。huggingface 上还有一个排行榜,用于跟踪、排名和评估开放式 LLM 和聊天机器人 - OpenLLM 排行榜

  • 大型语言模型的参数是什么?

大型语言模型的参数是各层权重和偏置的组合。下面的类神经网络共有 41 个参数。第一输入层有 16 个参数,包括 12 个权重和 4 个偏置元素。同样,读取其他层的参数。

11. 结论

大型语言模型(LLM)是一种功能强大的工具,可在最少人工干预的情况下快速、准确地处理自然语言数据。这些大型语言模型可用于各种任务,如文本生成、情感分析、问题解答系统、自动摘要、机器翻译、文档分类等。由于 LLM 能够快速准确地处理海量文本数据,它们已成为各行各业各种应用的宝贵工具。NLP 研究人员和专家要想在这个快速发展的领域保持领先地位,就应该熟悉大型语言模型。总而言之,大型语言模型在 NLP 中发挥着重要作用,因为它们能让机器更好地理解自然语言,并在处理文本时生成更准确的结果。通过利用深度学习神经网络等人工智能技术,这些模型可以快速分析海量数据,并提供高度准确的结果,可用于不同行业的各种应用。

读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用

对于0基础小白入门:

如果你是零基础小白,想快速入门大模型是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

👉AI大模型学习路线汇总👈

大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉大模型视频和PDF合集👈

观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
在这里插入图片描述
在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

  • 14
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值