人工智能大模型的数据治理

摘 要:为提高人工智能大模型全生命周期的价值和性能,推动大模型在各行各业落地应用,需要把以数据为中心的人工智能理念和技术贯穿于大模型全生命周期。在分析大模型数据治理的内涵特征、必要性、特殊性及重点内容等基础上,针对大模型的规划设计、预训练、评估、部署推理、运维监控、退役(迭代)等全生命周期关键阶段,分阶段确定数据治理的框架、对象、重点任务和技术策略,以期为大模型的数据治理提供全景式的逻辑框架和全流程的技术参考。

引 言

人工智能大模型从开发到退役迭代是周期较长的复杂系统工程,数据是人工智能大模型的基石,贯穿大模型全生命周期始终。已有研究表明,系统有效的数据治理可提高大模型全生命周期的价值和性能。

近年来,国内外学术界围绕提升大模型性能,先后提出了以模型为中心的人工智能 (Model-Centric AI)和以数据为中心的人工智能(Data-Centric AI)。对于人工智能大模型在银行等具体场景的开发应用而言,更多是采用成熟的大模型进行评测、训练改进和微调等,对大模型算法架构等改动较少,大模型落地性能及效果更大程度上依赖于行业领域及场景相关的数据状况,因此,更需落实以数据为中心的人工智能。大模型与数据关系甚为密切,贯穿于大模型全生命周期。例如,在大模型预训练阶段,海量数据为模型提供了丰富的学习材料,帮助模型发现数据中的模式、特征和规律。随着大模型参数量的增加,其对预训练数据量的需求也随之增长。例如,最新的 GPT-4 大模型具有1.8万亿参数,训练数据高达13万亿个token。大模型训练数据不仅要规模庞大,还要求类型多样、情境覆盖广泛,这样训练出的大模型才具备更好的泛化能力。

本文力图阐明大模型数据治理的必要性和特殊性,把以数据为中心的人工智能贯穿到大模型全生命周期,指出涉及的重要维度,分析大模型数据治理的重点内容和策略技术,希望为面向大模型开发应用的数据治理提供全景式的参考。

1.大模型和数据治理

1.1 大模型

人工智能大模型是当前人工智能领域的热门研究方向和技术趋势,它们通过整合大量数据、算法和算力,在多个下游任务上实现性能显著提升和高效通用化应用,通常具有庞大的参数规模和训练数据量级,核心在于能够处理和理解大量未标记数据,通过预训练和微调等方式在自然语言处理、计算机视觉、内容生成等任务上达到良好性能。

人工智能大模型开发应用是一个长期复杂的工程,如OpenAI公司的生成式预训练变换器 (Generative Pre-trained Transformer,GPT)系列大模型,从规划设计到应用再到迭代升级,前后时间跨度近10年。这一过程不仅耗资巨大、技术复杂,还涉及数据、通信等多领域技术交叉融合。因此,树立全生命周期理念对确保大模型的高效开发、部署应用和维护升级等至关重要。国际标准化组织和国际电工委员会提出人工智能系统全生命周期概念,包括发起、设计开发、验证和确认、部署、运行与监控、持续验证、重新评估、退役迭代等重点步骤。基于上述全生命周期概念和银行大模型开发实践,可把大模型生命周期划分为6个重点环节:规划设计阶段、预训练阶段、评测阶段、部署推理阶段、运维监控阶段和退役迭代阶段。

1.2 数据治理

学术界、产业界认为数据治理是一个复杂的系统工程。企业等数据主体通过制定一系列围绕数据的管理与开发机制、政策,组织实施与数据的收集、存储、处理、加工、维护等有关的技术性活动,系统化提高数据的数量、质量,以确保数据的准确性、可靠性、及时性、安全性、合规性和共享性,推动数据共享和充分利用,实现数据价值最大化。

1.3 大模型数据治理

结合银行大模型设计开发及数据治理实践,人工智能大模型的数据治理是指在大模型整个生命周期中,对数据的收集、处理、存储、使用、保护和废弃等各个环节进行规划、监控和控制的过程,其目的是确保数据的高质量、安全合规、有效利用,进而支持大模型的持续优化与可信应用。

大模型数据治理不仅仅是对大模型某个开发应用阶段的数据治理,还是对大模型开发应用等整个生命周期进行的数据治理。落实以数据为中心的人工智能,在大模型规划设计阶段, 进行数据需求分析、数据策略制定、数据架构设计等数据治理任务;在大模型预训练阶段,进行数据清洗标注、数据安全与隐私保护、优化数据的多样性与代表性、优化数据集的配比结构等数据治理任务;在大模型评测阶段,根据模型任务目标和应用领域,进行评测数据建设和选择、评测数据迭代更新等数据治理任务;在大模型部署推理阶段,为激发模型潜在性能,进行指令数据集构造、数据流监控、实时数据处理等数据治理任务;在大模型运维和监控阶段,持续进行数据质量监控、数据合规性审计等数据治理任务;在大模型退役迭代阶段,进行数据归档与销毁、迭代数据准备等数据治理任务。

2.大模型数据治理的必要性、特殊性和重点

2.1 大模型数据治理的必要性

数据治理在大模型全生命周期中扮演着基石角色,通过数据治理确保数据的高质量、安全、合规和高效利用,为大模型的成功训练、部署和持续优化提供支撑,也为数据价值充分释放、大模型达到预期性能及安全合规使用夯实 基础。

2.1.1 提升数据数量质量,确保模型性能

数据不仅是大模型训练的“燃料”,更是模型性能提升的决定性因素之一。数据的数量、质量和多样性共同决定了大模型的上限,是其能够实现各种高级认知任务的基础。经过精心治理的数据集能更好地反映真实世界的多样性,帮助模型在不同场景下都能有良好的表现,增强模型的泛化能力。清晰、规范化的数据治理流程有助于构建可追溯的数据链路,这对于理解模型决策过程、提升模型的可解释性至关重要。数据治理还包括对模型反馈数据的管理和分析,这有助于及时发现模型在实际应用中的不足,为模型的持续优化和迭代提供依据。

2.1.2 减少偏差和偏见,保障模型安全与合规

数据中的偏差和偏见会直接影响模型的决策结果,导致不公平或错误的判断。通过数据治理,可以识别并纠正数据中的偏差,确保模型的输出更加公正、可靠,符合伦理和法律要求。数据治理还包括对数据的合法合规使用,尤其是在涉及个人隐私和敏感信息时。有效的数据治理策略能够确保数据处理过程和大模型开发应用全过程符合相关法律法规,避免数据泄露或滥用的风险,保护用户隐私。

2.1.3 优化数据生命周期管理,充分释放数据价值效能

从数据的收集、存储、处理到模型训练、评估和部署,每个阶段都需要有效的数据治理。这有助于提高数据利用效率,最大限度实现数据的价值,减少不必要的存储和计算成本,同时确保模型训练过程的高效和可持续性。

2.2 大模型数据治理的特殊性

大模型的数据治理在数据规模、动态性、可解释性等方面提出了更高的要求,需要更为精细化和智能化的治理策略,相较于普遍意义上的数据治理,具有以下特殊性。

2.2.1 数据的海量规模与复杂性

大模型训练往往需要海量数据,数据规模远超传统应用场景,这要求数据治理方案必须具备高效处理大规模数据的能力,包括数据的存储、处理、分析和传输。同时,数据类型和来源的多样性增加了数据治理的复杂度,需要更有效的数据整合与管理策略。

2.2.2 数据持续迭代与动态性

大模型的训练和应用是一个持续迭代的过程,模型在部署后的使用中还会产生新的数据反馈,这些反馈数据需要被纳入模型的持续优化中。因此,数据治理不仅要考虑初始训练数据的管理,还要涵盖模型运行期间的实时数据处理和周期性数据更新。

2.2.3 数据对模型性能的高度影响性

大模型的性能高度依赖于数据质量,即使是少量的噪声数据也可能对模型性能造成显著影响。因此,数据治理必须实施更为严格的数据质量控制,包括精确的数据清洗、去重、去噪,以及对数据偏见和不一致性进行校正。

2.2.4 数据对模型可解释性和监管合规的高度关联性

大模型的黑盒特性要求数据治理不仅关注数据本身,还要考虑如何通过数据治理提高模型的可解释性,以满足监管要求和公众的透明度期望。

2.3 大模型数据治理的重点

2.3.1 以模型为中心的AI与以数据为中心的AI

以模型为中心的AI通常把数据置于从属地位,注重对模型的类型、架构、算法和超参数选择和改进,以构建高效能的大模型AI系统。以数据为中心的AI则选择适合数据的算法模型,强调系统化设计数据,实现数据工程化,改善数据质量和数量以提高大模型AI系统的性能。尽管两者存在差异,但数据和模型两者缺一不可、相辅相成,它们在开发AI大模型时应融合使用。

2.3.2 数据数量与数据质量

以数据为中心的AI强调扩充数据以获取更多的数据、精炼数据以获取质量更高的数据 。其中,扩充数据是指广泛获取额外数据以填补数据集中的“盲点”,从而满足具体业务应用要求,并应对数据分布的变化,维持模型性能。精炼数据是指系统提升已有数据的质量,如改善特征或标注的质量、增加高相关实例的数量、识别和移除低质量样本,使模型更好地泛化, 以提高性能和可靠性。可见,数据的数量和质量是一体两面的关系,数据治理应追求实现更多、更好的数据。

2.3.3 自动化数据治理技术与人工参与

自动化技术可提高数据治理的效率和准确性。例如,在数据维护方面,用自动化进行质量改进、数据验证模块训练大模型来识别潜在问题。人工参与数据治理可分为人工全面参与、人工部分参与和人工最低参与3种情形。人工全面参与是人工完全控制数据治理整个过程,自动化方法辅助人工做决策,如数据清洗和特征提取;人工部分参与是用自动化方法控制过程,但需人工提供大量反馈或频繁交互,如数据标注;人工最低参与是由自动化方法完全控 制整个过程,只在需要时咨询人类,如数据合成。上述3种情形反映效率(减少人力)和效果(更 符合人类意图)之间的权衡,而自动化技术及人工参与程度的选择取决于大模型应用领域和利益相关者对效率、效果的需求。

2.3.4 个体、组织与跨组织层面的数据治****理

在个体层面,大模型全生命周期的数据治理过程需较多的人工参与,甚至部分个体在数据治理方面发挥重要作用,大模型各阶段的数据治理有所侧重,但都需数据专家与开发人员、领域专家等深度互动,数据对大模型的影响最终取决于个体实施数据治理的成效。在组织层面,监控数据质量是组织的关键任务,研究表明,大模型性能受数据完整性、特征和标签准确性等影响,因此需整个组织从全流程确保数据质量。在跨组织层面,大模型涉及的数据来源经常是跨组织的,数据理解和数据准备需要不同组织实体之间的分布式协作。为实现跨组织的数据准备,不同组织间需要就数据处理达成共识标准,如统一数据处理的编码环境及版本控制。可见,数据治理贯穿个体、组织、跨组织多个层级,因此针对大模型全生命周期的数据治理需统筹好个体、组织和跨组织的协同。

3.大模型数据治理的阶段性重点任务

大模型开发应用周期长,分为6个重点阶段,数据治理不是一蹴而就的,不能仅针对大模型开发应用中个别环节或阶段进行,而需要遵循全生命周期的理念,按照系统化、流程化的技术逻辑有序开展,只有通过系统化地加强数据治理,才能充分发挥数据和大模型应有的价值和作用。大模型数据治理流程如图 1 所示。

图 1 大模型数据治理流程

3.1 大模型规划设计阶段要建立数据治理框架

大模型规划设计之初,需根据大模型的任务定位、功能要求等建立全面的数据治理框架,包括开展数据需求分析、确立数据治理技术框架。

3.1.1 开展数据需求分析

明确数据的类型、来源、规模和质量要求,是大模型设计的基础。良好的数据需求分析结合源数据、专业领域的数据治理,能够帮助准确识别大模型研发所需的数据特征,避免后期因数据不足或不匹配导致的大模型性能问题。

3.1.2 确立数据治理技术框架

以数据为中心,将大模型全生命周期和数据全生命周期结合起来,建立数据治理框架,确保数据收集、处理、使用的全过程符合法律法规和伦理标准,以预防数据质量数量等方面的潜在问题,防控数据偏见和隐私泄露风险。

3.2 大模型预训练阶段要对预训练数据进行治理

预训练数据是大模型训练的基础,大模型的性能受其质量和数量影响最大 。预训练数据数量庞大,其治理涵盖的环节较多,包括数据收集、标注、准备、降维、增强和版本控制等。

3.2.1 数据收集

重视专业领域知识的收集,有助于收集相关领域数据和有代表性的数据,确保数据与大模型的设计规划目标等保持一致。高效数据收集策略包括数据集发现、数据集成和数据合成等。其中,数据集发现通过查询已有相关数据源,构建新的数据集,减少人力成本,提高数据收集效率。数据集成可借助机器学习技术,旨在把不同来源的数据合并为一个统一的数据集。数据合成则生成包含所需模式的数据集,如合成异常模式数据。

3.2.2 数据标注

数据标注覆盖如下重点:发挥专业领域知识的作用、平衡标注质量和数量、考虑标注过程中的主观性和伦理等。首先,要深入了解大模型的应用领域,确保收集到的数据具有相关性、多样性和代表性;其次,标注过程要平衡标注质量、标注数量和财务成本,并借助专业领域知识进行考量,监控标注过程中的主观性 (标注人员可能误解指导说明,产生标注噪声);最后,还需考虑伦理,特别是在标注任务分配给大量不特定人群时,要重视数据隐私和偏见等问题。

3.2.3 数据准备

数据准备涵盖数据清洗、特征提取和特征转换。其中,数据清洗涉及识别和纠正数据集中的错误、不一致性和不准确性,通过程序化软件工具或机器学习方法修复数据。特征提取是从原始数据提取相关特征值,可手动提取特 征,也可利用深度学习方法自动提取特征。特征转换将原始特征转换为新特征,常用方法有归一化、标准化、对数转换和多项式转换等。

3.2.4 数据降维

数据降维是将高维数据映射到低维空间,以保留数据关键信息并降低数据的复杂性,通常以减少特征数量或样本数量来实现。降维方法有特征选择和维度压降两种策略。其中,特征选择是指采用过滤、包装和嵌入等方法,选择与任务相关的特征子集。维度压降是将高维特征转换到低维空间,主要方法有线性技术和非线性技术。线性技术通过线性组合原始数据的特征生成新的特征,如主成分分析。非线性技术则利用非线性映射函数,如自动编码器将原始特征编码为低维空间并使用神经解码器重构特征。

3.2.5 数据增强

数据增强主要包括基本操作和数据合成。其中,基本操作是对原始数据进行轻微修改以直接生成增强样本,如缩放、旋转、翻转和模糊化等方法。数据合成则通过学习现有数据的分布来合成新的训练样本,一般通过生成建模实现。生成对抗网络被广泛用于数据增强,通过训练鉴别器和生成器,生成与现有数据相似的合成数据。相比于基本操作,数据合成从全局视角学习数据模式,并使用学习模型生成新样本。

3.2.6 数据版本控制

数据版本控制的重点内容包括:一是加强元数据管理。详细记录各数据版本的元数据(数据集来源、处理步骤、质量评估指标、修改日期、修改人等信息),并与数据版本一起存储,以便查询分析。二是实现数据回滚与分支管理。允许在发现问题或需要回溯时快速恢复到先前的数据版本,利用分支机制支持对新数据集或数据处理方法的实验,不影响主数据流的稳定性。三是建立全面的文档。明确数据版本控制的流程、最佳实践和工具使用指南。四是提升数据版本控制意识。定期进行培训,确保参与预训练数据治理的每个人都了解数据治理的重要性并能有效执行。

3.3 大模型评测阶段要对评测数据进行治理

评测数据是开展大模型评测的基础,而评测数据治理是一项重要的基础性工作,对评估或优化大模型的性能起着锚定作用,具体包括开展同分布评测、异分布评测及相关评测数据集的治理。

3.3.1 同分布评测

同分布评测是评估大模型性能效果的最直接方式,即在与预训练数据相同分布的数据集上评估大模型的推理能力,有助于发现模型在特定数据子集上表现不佳的情况,从而通过识别和校准相应的子数据集,以避免偏见和错误。同分布评测需对评测数据进行数据切片,即将评测数据集划分为相关子集,并分别评估大模型在每个子集上的性能,有助于发现大模型在哪些切片上表现不佳。常见的数据切片方法使用预定义的标准,如年龄、性别或种族。自动化切片方法可提高切片效率,在数据空间中筛选所有潜在的切片,以识别重要的数据切片。

3.3.2 异分布评测

大模型在部署环境中可能会遇到与预训练数据不同的数据分布,因此需要评估大模型在意外情况下的泛化能力。生成对抗样本,有助于了解模型的鲁棒性,特别是当训练和部署数据环境之间存在分布差异时,生成具有分布偏移的样本,有助于评估模型在不同分布上的表现。

3.3.3 评测数据集治理

评测数据集是优化模型性能的基准,也是评估和比较不同模型性能的重要工具。评测数据集的治理重点包括:一是数量和质量。目前评测数据集无论从类型上还是从数量上都相对较少,大模型开发应用进入快速发展阶段,需建立数量质量标准,丰富评测数据集的类型并提升评测数据集数量质量。二是多样性和代表性。高阶多数据集建模的研究表明,利用多模态、多类型的数据集能更有效解决传统数据处理和分析方法失效的问题,在设计评测数据集时,应尽可能考虑数据的多样性和代表性,确保在多种不同场景下有效评估模型。三是性能数据记录。系统性地管理模型评估数据,以分析模型在不同数据子集上的差异表现,指导后续调优工作。

3.4 大模型部署推理阶段要对部署与推理数据进行治理

部署与推理阶段涉及的输入输出数据数量很大,是大模型全生命周期数据治理的重点,包括对部署数据、指令数据集、偏好数据集、强化学习数据集、提示工程数据、运维监控数据等的治理。

3.4.1 部署数据的治理

着眼于保障大模型服务的高效性和安全合规性,综合采取以下技术措施:一是建立高效的数据接入与预处理机制,实施数据加密、匿名化等技术处理手段,以确保隐私安全;二是执行合规审计与数据留存策略,确保符合法规要求;三是通过性能监控与日志管理等方式优化服务表现;四是建立用户反馈循环机制,促进模型迭代;五是制订应急响应与灾备计划,保障数据安全与业务连续性。

3.4.2 指令数据集的治理

指令微调通过有标注的特定任务数据,使大模型得以学习如何解读和响应具体的指令性文本,从而推动大模型实现从通用语言理解向任务导向型智能的转变。构建指令数据集是大模型指令微调的前提,需高度关注指令数据的质量、多样性和代表性,精心设计任务示例,确保指令清晰、目标明确、覆盖广泛的任务场景,使模型能够学习到执行各种任务的策略。此外,指令数据治理的有效策略还包括引入合成数据生成技术、利用迁移学习来扩展现有数据,以及利用众包平台来高效收集高质量标注数据。

3.4.3 偏好数据集的治理

偏好数据集旨在帮助大模型更贴近人类偏好和期望。构建偏好数据集常见的方法包括:对人类偏好进行标注,对模型辅助生成内容进行质量区分,从社交平台上提取问答内容,并利用点赞数量等作为偏好指标。对于管理偏好数据集,需要考虑数据集的语言,大部分偏好数据集是英文的,中文或多语言数据集相对较少。目前,偏好数据集的案例主要集中在一般领域和社会规范领域,需根据大模型发展及应用需求进行数据集内容和领域拓展。

3.4.4 强化学习数据集的治理

强化学习比有监督学习更能考虑整体影响,更容易解决大模型幻觉问题。对大模型进行强化学习提升推理能力和效果,需要借助强化学习数据集(用于强化学习算法训练和评估的数据集)。这些数据集通常包含环境状态、动作、奖励等信息,其构建方法有模拟环境生成、采集真实世界数据等。

3.4.5 提示工程数据的治理

提示工程即设计构建高质量提示,使大模型在下游任务中表现更佳,本质是构建高质量数据集,激活大模型能力。构建并更新提示工程数据集很有必要,其主要障碍是缺乏表现良好的通用提示模板,需深入研究提示工程的原理和内在逻辑,以指导提示工程数据集构建优化及应用。

3.5 对大模型运维监控数据的治理

大模型运维阶段在全生命周期中占据较大的时间比例,这一阶段的数据治理范围不仅覆盖大模型运维数据的处理,还包括前4个阶段数据的维护优化及更新,具体涉及运维数据的治理、数据的安全治理、数据的理解呈现、数据的质量保证、数据存储检索的治理。

3.5.1 运维数据的治理

运维期间会产生大量的运行日志和监控数据,因此需要建立良好的数据管理机制,发掘日志与监控数据的价值,快速定位问题,以优化大模型的服务与性能。此外,还需要开展对数据质量的持续性监控,确保大模型输入输出数据的质量,及时发现并处理数据漂移等问题,以维持模型性能稳定。

3.5.2 数据的安全治理

数据安全治理始终是数据治理不可忽视的重要内容,需综合采取以下治理策略:一是实施加密传输与存储、严格访问控制及身份验证。二是遵循数据最小化原则,实时监控并检测异常,定期安全审计与渗透测试,应用隐私保护技术,确保合规。三是建立应急响应计划,加强团队安全培训及构建分层防御体系,全方位保护数据免受内外威胁,保障服务稳定与用户信息安全。

3.5.3 数据的理解呈现

真实世界的数据通常量大、复杂且维度高,只有持续增强数据理解及相关技术的支持,才能为大模型开发应用打牢基础。数据理解的重点包括:一是对数据进行总结并以更简洁和易访问的方式呈现;二是在较低维度空间对高维实际数据进行可视化;三是帮助组织和利益相关者理解其数据资产的价值及每个数据样本对大模型性能的潜在贡献。

3.5.4 数据的质量保证

实际应用中的数据非常复杂,包含与预期结果不符的各种异常数据点,需建立评估数据质量的定量指标,对数据质量进行持续监控。若模型受到低质量数据的影响,就需要实施质量改进策略以提高数据质量。数据质量评估是由开发评估指标来衡量数据的质量并检测潜在的缺陷和风险,有客观评估和主观评估两种方法:客观评估是直接使用与特定应用程序无关的数据属性来测量数据质量;主观评估则是从人类的角度评估数据质量,通常需要借助专家的外部分析。

3.5.5 数据存储检索的治理

随着数据量的指数级增长,建立一个强大可扩展的数据管理系统变得日益重要,它能够有效处理海量数据,支持AI模型的训练。数据存储和检索治理主要包括设计实施数据管理系统、资源分配、查询加速等。其中,数据管理系统要能够高效处理大数据量并快速响应,精细管理内存和计算资源,同时设计查询策略以实现数据快速存取。资源分配旨在估计和平衡数据管理系统内操作的成本,通过调整数据库配置和运行时操作等方式来优化存取访问吞吐量并控制延迟。

3.6 大模型退役迭代阶段要对退役迭代数据进行治理

大模型退役阶段需周密规划,在性能评估决策后,对数据与模型存档,保存知识遗产,完成环境清理与全面审计,为模型的生命周期画上圆满句号,也为新模型和业务的迭代升级打牢数据基础。具体的数据治理任务包括合规处置数据,对模型知识数据进行迁移复用,对大模型全生命周期的技术与经验数据进行继承。

3.6.1 合规处置数据

处置数据的重点内容包括:一是对数据进行归档与备份。对大模型训练和运行过程中产生的大量数据进行分类和评估,区分为核心数据和辅助数据。对于核心数据,如高质量的训练样本、模型参数等,应进行长期归档备份,以备未来研究、审计或复用;对于辅助数据,则依据其价值决定是否保留或销毁。二是保护隐私。在数据处置过程中注重隐私保护与合规处理,严格遵守数据保护法规,对涉及用户个人信息的数据进行匿名化处理或彻底删除,确保不违反隐私保护政策。三是注重数据迁移与整合。对仍有价值的数据,应规划合理的迁移路径,将其整合至新的数据管理系统中,以便今后利用。

3.6.2 迁移模型知识数据

综合采用知识蒸馏、多模态扩展、迁移学习等技术,对大模型的知识数据进行迁移提升或复用。将大型模型的“知识”压缩到小型模型中,通过知识蒸馏技术,使小模型在保持相对较小体积的同时,尽可能地继承大模型的性能。随着大模型向垂直行业应用的深入,其处理的数据类型将从文本扩展到图片、音频、视频等多模态。当大模型退役时,应利用迁移学习技术,将大模型在特定任务上的学习成果转移到新模型或新任务上,以加速新模型的训练,减少对大量标注数据的依赖。

3.6.3 继承技术与经验数据

对大模型全生命周期的技术经验数据进行继承,主要有以下数据治理方法和内容:一是建立健全的文档记录制度和体系,详细记录模型开发、训练、优化、部署及运维的全过程,如遇到的问题、解决方案、最佳实践等,并形成知识库,供后续项目参考;二是加强团队培训,组织技术交流和培训会议,总结分享大模型项目的经验教训,提升团队在模型设计、数据处理、性能优化等方面的能力,把技术经验沉淀为数据资产。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

  • 9
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值