论文基本信息
论文题目:
ChatGPT-like large-scale foundation models for prognostics and health management: A survey and roadmaps
1 摘要
故障预测与健康管理(Prognostics and Health Management, PHM)技术在工业生产和维护中至关重要,它能够识别和预测潜在的设备失效及损坏,从而实施主动维护措施,提高设备可靠性并降低生产成本。近年来,基于人工智能(Artificial Intelligence, AI)的PHM方法取得了显著成就,并广泛应用于铁路、能源、航空等多个行业的状态监测、故障预测和健康管理。ChatGPT和DALLE-E等大模型(Large-Scale Foundation Models, LSF-Models)的出现,标志着AI从AI-1.0进入了AI-2.0的新时代,深度模型从单模态、单任务、有限数据的研究范式迅速演变为多模态、多任务、海量数据和超大模型的范式。ChatGPT因其出色的自然语言理解能力成为这一研究范式的标志性成果,为通用AI带来了希望。然而,PHM领域对于如何应对这一重大变革尚未达成共识,需要系统的综述和路线图来阐明未来的发展方向。因此,本文阐述了LSF-Models的关键组件和最新发展,系统地回答了如何构建适用于PHM任务的LSF-Models,并概述了这一研究范式面临的挑战和未来发展路线图。
关键词:故障预测与健康管理;故障诊断;大模型;表征学习
6 挑战与未来发展路线
在前一节中,我们讨论了在PHM中构建LSF-Models的技术细节和可行解决方案。本节试图从更广泛、更全面的角度讨论这些模型面临的挑战、路线图和前景。通过这样做,我们可以更好地了解全局,并确定PHM中需要改进和未来研究的领域。
6.1 大模型在PHM领域面临的挑战
图8展示了LSF-Models在PHM中面临的挑战,主要包括数据集、安全性、可信度、可迁移性、高级认知、可解释性和边缘设备部署等七个方面。下面将详细描述这些挑战。
图8 PHM领域的大模型面临的挑战
6.1.1 大规模数据集
企业不愿意向竞争对手透露其商业敏感信息,包括关键设备的性能参数、维护记录和生产过程中的故障等。用于PHM的工业生产数据和机械设备运行监测数据不可避免地会涉及这些商业敏感信息。因此,企业制定了严格的数据保护措施,导致在PHM中公开可用的大规模工业数据严重短缺。现代工业设备通常在复杂且无边界的环境中运行,导致收集的数据经常存在噪声、缺失数据、失真、异常干扰等问题。此外,部署的各种工业传感器导致获取的数据类型多样,需要处理不同模态的数据。因此,使用此类数据构建有效的大规模PHM模型具有挑战性。
6.1.2 安全性
尽管LSF-Models在大规模数据集上进行了训练,但它们仍然容易受到安全威胁,如对抗攻击[143]。对抗攻击可以通过精心设计的噪声干扰PHM模型的输出,导致模型产生错误结果。这在关键的PHM应用中是不可接受的,如核电站的安全监测。除了直接攻击外,在大规模数据的训练过程中可能会引入无意的偏差或错误,这可能导致模型输出有偏差甚至错误的结果。在这种情况下,PHM模型可能存在安全风险,并且难以排查故障,因为特定的偏差和错误结果仅在特定场景中偶尔出现。此外,由于LSF-Models需要大量的计算资源进行训练和推理,它们也容易受到针对计算资源的攻击[144, 145]。
6.1.3 可信度
LSF-Models的可信度[146]代表用户对其输出准确性和一致性的信心。此外,模型必须在保持预测准确性和稳定性的同时,承受偏差、噪声和输入数据扰动等干扰。目前,与传统的DL模型相比,LSF-Models的可信度有了显著提高。然而,在PHM中,复杂的工况、多样的背景噪声和不同的旧设备导致数据分布差异很大。因此,提高LSF-Models的可信度仍然是一个重大挑战。
6.1.4 可迁移性
LSF-Models的可迁移性是指模型是否能够很好地迁移和适应不同的任务和数据集。在PHM中,不同的场景需要不同的任务(如异常检测、故障预测、RUL预测)。然而,这些PHM任务的性质和实现方式差异很大,如何在各种任务之间实现良好的可迁移性和适应性是一个挑战。此外,不同的机械设备具有不同的特性;例如,轴承、齿轮箱和曲轴都是核心旋转设备,但它们的故障特征和特性差异很大。另一个挑战是处理这些差异,使LSF-Models在各种应用中具有很强的可迁移性和适应性。
6.1.5 高级认知
目前对LSLMs和视觉模型的研究表明,LSF-Models具有一定的高级认知能力,能够在一定程度上学习一般概念[37, 39]。然而,目前尚不清楚这些模型是如何获得这些能力的,以及如何明确地增强这些能力。此外,PHM数据具有显著的随机性,这对模型从这些数据中概括高级认知构成了挑战。与具有规律性的文本和视觉数据不同,时间序列数据的多样性使得模型更难提取广义的特征表示。
6.1.6 可解释性
可解释性[147-150]意味着模型的决策和输出可以被解释和理解,透明度意味着模型的内部结构和操作可以被人类理解和审查。然而,随着LSF-Models的发展,这些模型的内部工作原理和操作机制变得越来越难以解释和理解,透明度也越来越低。此外,LSF-Models在训练过程中可能会捕获不可预测的数据关系和噪声,这可能导致重大的安全风险。在PHM[128, 151, 152]中,可解释性和透明度非常重要,因为在核能和航空航天等领域,缺乏透明度的模型难以获得信任。然而,LSF-Models的复杂性使得研究其可解释性和透明度极其困难。
6.1.7 边缘设备部署
LSF-Models具有大量的参数和复杂的结构,需要大量的计算资源进行训练和推理。然而,在PHM中,通常需要将监测模型部署到边缘计算设备或移动终端,以满足实时性和安全性要求。然而,由于现有的边缘计算设备通常无法执行LSF-Models,在不影响其性能的情况下实现此类模型的部署是一个重大挑战。因此,必须设计新的技术来解决这个问题,促进LSF-Models在边缘计算设备上的部署[153-155],同时保持其性能。
6.2 大模型在PHM领域的发展路线
图9展示了LSF-Models在PHM中的未来路线图。根据LSF-Models面临的挑战,本节探讨了如何解决这些挑战,并详细阐述了未来的路线图。下面将详细描述这些内容。
图9 PHM领域的LSF-Models发展路线
6.2.1 大规模数据集发展路线
构建PHM大规模数据集的核心解决方案是消除企业对数据隐私和安全的担忧,特别是要使所有企业都能从中受益,实现互利共赢。为此,可以通过以下方法推进大规模数据集的分析和利用:
(1)构建国际和国内标准。首先,在学术界和工业界的共同推动下,建立一套完整的标准体系,包括数据收集和存储标准等。然后,使用这些标准规范数据收集的方法、对象、频率和质量,以及数据存储和隐私保护。
(2)建立工业数据联盟实现数据共享。在政府或行业协会的推动下,建立工业数据联盟,在保护每个企业商业秘密的同时实现行业数据共享,实现互利共赢。
(3)推动校企联合研究中心的建设。在工业领域,学术界掌握着前沿的算法和数据分析能力,工业界掌握着大规模的工业数据。因此,建立校企联合研究中心可以协同发挥各自的优势,促进LSF-Models的研究进展。
(4)探索具有数据隐私保护的算法。在保护数据隐私的同时,探索高效的跨数据中心大规模DL模型训练和优化算法。为了解决企业对数据隐私和安全的担忧,可以采用数据脱敏、加密等技术手段促进数据共享。
6.2.2 安全性的发展路线
LSF-Models的安全性主要包括数据安全、模型安全和系统安全。为此,可以从以下几个方面提高LSF-Models的安全性:
(1)确保数据安全。确保数据安全需要避免数据被恶意篡改或污染,并避免向模型引入偏差或错误信息。因此,必须确保模型的训练数据源可靠、高质量、充足且具有代表性。此外,需要建立数据安全保护机制,以避免恶意数据泄露和篡改。
(2)确保模型安全。探索实用的对抗训练和正则化方法[156],以提高LSF-Models抵抗恶意干扰和噪声的能力。此外,增强模型的安全性和隐私性,如模型加密[157, 158],以防止模型被盗或被逆向工程。
(3)确保系统安全。对于基于LSF-Models的PHM系统,建立监测系统,及时检测异常操作和攻击行为,并同时记录操作和审计日志,以便调查和追溯安全事件。
6.2.3 可信度的发展路线
提高LSF-Models的可信度是一个综合而复杂的问题,可以从以下几个方面进行优化和改进:
(1)提高数据质量。数据质量是模型训练的基础,确保数据质量对于提高模型的可信度至关重要。因此,需要采取一系列措施确保数据质量,包括数据清洗、去除异常值、数据增强等。
(2)提高模型的鲁棒性。探索新的解决方案,以提高模型在噪声[159, 160]、分布偏移[161, 162]和分布外场景[163, 164]中的鲁棒性和抗干扰能力。
(3)建立适当的评估框架。评估LSF-Models的挑战之一是建立适当的评估框架,这需要多方面的努力。例如,涉及选择多样化的评估任务和数据集、选择合适的评估指标、探索对对抗攻击的鲁棒性、评估公平性以避免偏差,并进行长期性能监测。
(4)保证模型的可追溯性。为了提高模型的可信度,需要全面记录和追溯模型的开发、训练、测试、部署等过程。这可以确保模型的过程可控,结果可验证,从而提高模型的可信度。
6.2.4 可迁移性的发展路线
LSF-Models旨在推进通用模型的概念,使其能够执行所有任务。因此,我们致力于创建一个全面的多任务PHM系统。尽可能提高基础模型的可移植性和适应性是首要任务。PHM领域包含多种下游任务,其应用对象复杂,因此需要探索新的架构设计方法、特征学习方法和训练算法,以适应现实世界的工业场景,增强可迁移性。
(1)探索灵活的模型架构设计。为了构建通用的基础模型,需要研究能够针对不同类型的PHM应用(如监测、诊断、预测等)进行定制的灵活模型架构设计。
(2)探索通用的特征表示方法。从不同数据类型中提取有价值的特征是实现通用模型的关键。这些特征表示算法需要能够捕捉各种类型的故障模式,并且对不同类型的故障数据具有鲁棒性。
(3)探索适合PHM应用的训练算法。虽然在NLP和CV中已经提出了许多自监督训练算法[42, 72],但只有基于PHM特征设计的训练算法才能最大程度地提高基础模型的可迁移性和适应性。
6.2.5 高级认知的发展路线
LSF-Models有潜力使用大量训练数据和精心设计的算法从数据中获取高级认知并学习一般概念。在PHM中,具有高级认知能力的LSF-Models能够很好地理解工业数据的本质和一般概念。因此,LSF-Models可以及时适应不同的工业场景和任务,有效避免产生难以理解的输出。然而,目前LSF-Models所展示的高级认知能力还不足。除了增加训练数据量外,还需要探索以下方面:
(1)探索实现高级认知能力所需的数据要求。虽然一些现有的LSF-Models已经展示出有限的高级认知能力,但实现这种能力需要什么样的数据以及需要多少数据尚不清楚。此外,如何在相对较小的数据集中充分利用数据信息以获得可观的认知能力也是一个值得研究的课题。
(2)探索实现高级认知能力所需的模型要求。大多数现有的LSF-Models采用Transformer架构,但它存在局限性。因此,探索新的Transformer架构或设计新颖的模型架构,以使LSF-Models表现出更好的认知能力,是值得探索的领域。
(3)探索实现高级认知能力的理论要求。高级认知能力的实现不能仅仅依赖于大量的实验分析;还需要适当的理论提供指导解决方案。因此,探索LSF-Models获得高级认知能力的原因和机制将显著推动该领域的发展。
6.2.6 可解释性的发展路线
深度学习因其缺乏可解释性和透明度而受到批评,这种缺陷在LSF-Models中更为明显。提高这些模型的可解释性和透明度将增强其可信度、可控性和可靠性,使其更适合应用于航空航天和核能等关键工业领域。未来的研究可以从以下三个方面进行探索,以解决这个问题:
(1)探索深度可解释模型。在PHM中,一种可行的解决方案是通过信号分析方法[128, 136, 137, 152]的理论基础实现具有高可解释性的深度模型。此外,将先验知识或物理背景信息纳入模型也可以显著增强其可解释性。
(2)探索分析模型可解释性的方法。根据深度模型的特点,需要探索分析模型可解释性的实用方法。例如,通过使用可视化方法[128, 165-167]分析模型的内部结构参数和信号分析方法分析模型的滤波器[168],以了解模型学习了哪些特征。
(3)推动深度模型的理论研究。这需要深入分析基础模型的原理,探索其本质属性、特征、优势和劣势,并通过理论分析揭示其内部机制和规律[169]。
不同领域的算法之间存在相似之处,CV和NLP领域[170, 171]的可解释性方法也可以启发PHM领域的可解释性研究。常见的有效可解释性方法主要包括基于梯度的分析和基于可视化的分析。基于梯度的方法包括显著图、梯度类激活图和引导反向传播。基于可视化的分析方法包括热力图、激活图可视化和注意力机制解释。这些可解释性方法为理解深度学习模型的决策过程提供了直观的方式,有助于识别哪些输入特征对模型的输出至关重要。
6.2.7 边缘设备部署的发展路线
尽管LSF-Models性能令人印象深刻,但其计算需求极大地限制了其适用性。为了促进LSF-Models在PHM中的应用,可以从以下几个方面探索使其轻量化:
(1)探索轻量级深度模型。通过探索轻量级深度模型的设计方法[172, 173],开发新的低复杂度算法和算子设计范式,降低模型的计算负载和资源使用。
(2)模型压缩和修剪。探索模型压缩[174, 175]和剪枝[176, 177]技术,以减小模型的大小。可以采用有效的压缩方法,如权值共享、低秩分解和知识蒸馏。此外,可以使用有效的剪枝方法去除冗余神经元或连接。
(3)优化网络拓扑。探索新的网络拓扑设计方案,如受大脑启发的脉冲神经网络[178, 179],以实现具有低功耗和低计算需求的深度网络模型。
6.3 大模型与深度学习范式
LSF-Models引起了广泛关注,并给DL带来了深刻变革。它们对各种DL范式产生了深远影响,如迁移学习、小样本学习、强化学习和噪声标签学习。LSF-Models的成功使其能够作为这些研究范式的强大基础表示模型,显著提高了这些方法的性能。例如,LSF-Models本身具有很强的泛化和小样本学习能力,使其在迁移学习和小样本学习场景中表现出色。此外,当与为迁移学习或小样本学习量身定制的优化算法结合时,这些模型可以实现以前难以想象的卓越性能。LSF-Models还极大地提高了强化学习和噪声标签学习方法等的性能。此外,针对不同的深度学习范式已经开发了各种优化和训练算法,以解决它们的局限性和特定应用场景。这些算法也可以应用于LSF-Models,增强其在特定背景下的性能。
总之,LSF-Models为这些范式提供了强大的基础和工具,使迁移学习、小样本学习、强化学习和噪声标签学习等任务更加有效和实用。这些范式和各种优化算法反过来又可以激发LSF-Models实现更好的性能。
6.4 大模型在PHM与NLP/CV领域的异同
6.4.1 异同点
PHM、NLP和CV领域之间的差异带来了一些值得学者关注的新挑战。图10展示了它们的异同点。在NLP领域,各种任务和问题具有共同的逻辑,使得训练良好的模型适用于不同但相似的任务。NLP中的数据获取相对容易,数据量庞大且数据结构规则,使得构建大规模数据集相对简单。大多数NLP应用涉及生成任务,如基于文本的对话和文本翻译,简化了模型架构设计,无需考虑额外要求。
图10 大模型在PHM与NLP/CV领域的异同点
另一方面,PHM是一个相对个性化的问题。PHM领域的数据通常来自工业设备传感器、日志文件、历史维护记录等,具有时间序列数据和工程背景的特点。这些数据相对杂乱、难以获取,并且需要大量的数据清理工作。此外,PHM任务需求多样,如故障诊断、健康预测、异常检测、维护计划等,涉及分类任务、回归预测任务和操作优化任务。在PHM领域,存在各种工业应用场景和研究对象,如高速列车、风力涡轮机和飞机等,它们各自具有独特的属性和不同的健康退化模式,这给大模型的泛化带来了重大挑战。此外,工业场景中的PHM需要处理大量的时间序列数据,但对于大模型来说,对长距离依赖进行建模仍然是一个主要挑战。这主要是因为大规模模型的骨干网络Transformer是基于文本分析开发的,其长时相关特征编码能力不足。针对这个问题,我们在4.2节进行了分析和讨论。
CV与NLP和PHM领域有一些相似之处,例如数据获取相对简单,但任务场景复杂,需要诸如分类、分割和目标检测等任务。
从大模型的研发角度来看,PHM、NLP和CV领域存在相似之处。大模型是以数据为中心的研究方法,当接触到足够的数据和信息时,它们会发生质变,实现出色的性能。因此,在模型和算法设计与优化方面,跨领域的启发和知识转移是可能的。例如,NLP领域的Transformer模型和自监督学习算法可以在PHM领域找到有价值的应用。此外,在PHM领域,核心挑战是使模型真正理解工业数据并学习其潜在模式。在这方面,NLP和CV领域的经验和成功无疑可以为PHM领域提供有价值的参考。
6.4.2 挑战与解决方案
上一节描述了PHM与NLP/CV领域之间的差异。这些差异带来了新的挑战,需要相应的解决方案。主要挑战源于PHM领域任务需求的多样性和应用对象的多样性。
关于任务需求的多样性,我们的目标是建立基础模型,并使用下游任务特定信息对其进行微调。在模型部署后,特定领域知识和需求的频繁变化给模型的更新和维护带来了新的挑战。为了解决这个问题,可以将知识图谱与大模型相结合,并动态更新知识图谱,为模型提供最新信息。此外,探索可行的持续或在线学习算法可以动态更新模型的知识。关于应用对象的多样性,最佳解决方案是为不同的对象构建不同的大模型。例如,为高速列车设计的大规模模型和为风力涡轮机设计的大模型。
6.5 前景:通用PHM平台
传统的基于AI的PHM模型通常需要为每个子任务开发独特的数据处理和模型优化算法,以在特定场景中实现良好的性能。例如,需要为轴承构建独立的故障诊断和RUL预测模型。然而,复杂的工业设备可能包含数百个核心部件,为所有部件构建相应的PHM模型是一个庞大的项目。此外,这种应用范式无法充分利用工业设备的多模态相关数据,也无法全面表征工业设备的健康状态。而且,构建的各种子任务模型耗时费力,并且不能保证模型具有良好的泛化能力。如前所述,NLP和CV领域,如ChatGPT[37]和SAM[39],已经展示了大模型在跨模态多任务场景中的出色性能,并且在一定程度上实现了一个模型适用于所有任务的理念。因此,受此启发,实现通用的PHM平台以实现一个模型适用于所有PHM任务成为可能。这一研究概念将彻底改变PHM的研究范式,通用PHM平台的实现将显著促进PHM的全面智能化。
图11展示了一个用于高速列车的通用PHM平台示意图。通用PHM平台的核心是跨模态大模型。该模型接收来自高速列车的各种数据,如传感器数据(包括信号、图像和视频)、维护工单和记录,以及专家经验和知识作为输入。随后,它对高速列车的各个子系统和核心部件的健康状态进行全面评估和监测。具体而言,跨模态大模型通过采用多模态融合算法和自监督特征表示算法构建,使其能够理解和学习多模态列车数据的通用和高质量数据特征。随后利用零/小样本学习范式将跨模态基础模型扩展到各种列车PHM子任务,从而实现平台效应。跨模态大模型的最终目标是通过学习大量列车运行数据,为PHM任务(如健康监测、故障预测、异常检测、RUL预测、维护计划和健康管理)提供强大且可推广的数据挖掘和理解工具。即使对于训练期间未出现的新对象和数据,跨模态大模型仍然能够提供相当的特征挖掘能力。此外,该PHM平台旨在为维护工程师提供智能决策建议,使他们能够合理可靠地操作和管理设备。为了实现这一目标,将大语言模型进一步引入PHM平台。大模型获得的健康状态信息被输入到语言模型中,语言模型随后生成最终的决策建议。此外,语言模型还充当PHM平台与维护工程师之间的交互媒介,便于方便高效的信息交流。因此,所提出的通用PHM平台有望成为PHM领域的核心工具,在提高工业设备健康管理效率和降低维护成本方面发挥关键作用。
图11 以高速列车PHM应用为例,给出了通用PHM平台的原理图
7 总结
目前,深度学习研究正在经历一场新的革命,即从单模态、单任务和有限数据的研究范式(AI-1.0)迅速发展到多模态、多任务、海量数据和超大模型的研究范式(AI-2.0)。AI-2.0侧重于开发具有跨域知识的大模型,这些模型在大规模数据集上训练后能够展现出强大的泛化和多任务能力。为此,本文全面概述了大模型的三个主要技术要点,并分析了其在自然语言处理和计算机视觉领域的研究现状。文献综述表明,在PHM领域对大模型的研究严重不足,对于如何构建适用于PHM应用的大模型尚无可行的解决方案。因此,本文从数据集、深度模型、学习算法和数据融合四个方面全面回答了如何构建适用于PHM领域的大模型。最后,本文试图从更广泛、更全面的角度讨论大模型的挑战和发展路线。
值得一提的是,大模型的发展涉及众多技术,由于篇幅限制,本文未涵盖一些技术,如大模型的训练方法、大模型的微调方法、提示学习技术、强化学习等。本文致力于从多任务和多模态的角度概述PHM中的大模型。然而,这些技术更侧重于模型的训练优化方面,因此本文未涵盖它们。另一方面,这些技术对于构建大模型也至关重要。在未来,我们将进一步分析和探索大模型的训练和优化技术。总体而言,本综述系统地介绍了大模型及其在PHM中的研究现状、挑战、解决方案、路线和前景,有望为该领域的未来研究提供有价值的指导。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。