AI 投资依然强劲,但焦点正从 GenAI 的炒作转向 AI 就绪数据、AI 代理、AI 工程和 ModelOps 等基础创新。这项研究旨在帮助领导者优先考虑具有高影响力的新兴 AI 技术,同时应对复杂的监管和运营扩展。
需要知道的
随着人工智能应用的成熟,重点正从实验转向规模化。生成式人工智能 (GenAI)目前正处于“幻灭低谷期” ,这标志着人们对其潜力和局限性的理解日趋成熟。企业正将投资转向人工智能赋能能力——从高质量、情境化的数据到负责任的人工智能治理——以确保一致且可扩展的交付。随着人们对人工智能安全、主权和伦理的担忧日益加剧,负责任的人工智能已不再只是一项合规要求,而是一项设计原则和差异化因素。
与此同时,多模态人工智能、人工智能信任风险与安全管理 (TRiSM) 的应用以及基于大语言模型的人工智能代理等新兴创新,主导着“膨胀期望”阶段。复合人工智能依然保持着其重要性,成为整合多种人工智能技术的基础策略。模拟、具身人工智能和世界模型领域的创新持续受到关注,其强大的功能为未来的广泛应用奠定了基础。
组织必须使用根据具体情况和工作负载量身定制的 AI 解决方案,让 AI 更贴近决策点。成功的关键在于紧密契合业务的试点项目、积极主动的基础设施基准测试,以及 AI 与业务团队之间的协调,从而优化跨环境的价值交付。
炒作周期
今年技术成熟度曲线中两大推动力:AI就绪数据和 AI 代理,正受到越来越多的关注。这种趋势,伴随着雄心勃勃的预测和投机性的承诺,使它们处于预期膨胀的顶峰。随着企业投资 AI 就绪数据战略并部署 AI 代理,他们必须应对实施和集成的复杂性以及与部署相关的风险。务必务实地管理预期,并进行战略规划,以充分发挥这些创新的潜力,同时还要为随之而来的不可避免的挑战做好准备。
人工智能治理平台和人工智能财务运营(FinOps)是技术成熟度曲线上的两个新词,表明企业正致力于建立稳健的框架来管理人工智能风险,并拓展其在企业中的作用。它们的出现标志着企业不仅转向开发尖端人工智能技术,还转向实施结构化监管和财务效率措施,以支持可持续增长。
AI 原生软件工程进入技术成熟度曲线,凸显了该领域的快速变化如何深刻地重塑角色和任务。与其他不断发展的角色类似,AI 原生软件工程师正在重新定义他们的工作方式,协调代理工具和工作流程,以更高的自主性和创造性意图来设计、构建和扩展智能系统。
模型蒸馏等进步已经出现在技术成熟度曲线的后期阶段,强调了提高效率和实现更加多功能和全面的人工智能应用的能力的成熟。
与此同时,量子人工智能、第一性原理人工智能和因果人工智能等创新的进展与去年的炒作周期相比有所放缓。尽管这些领域前景广阔,但其缓慢的发展速度表明,它们面临着复杂的技术挑战,可能需要取得重大突破才能广泛应用于成功的人工智能解决方案中。
最后但同样重要的一点是,计算机视觉今年已经从人工智能炒作周期中毕业;它已经成为一种成熟的技术,并广泛应用于现实世界的应用中。
图 1:2025 年人工智能技术成熟度曲线
优先级矩阵
今年的优先级矩阵反映了人工智能领域以高效益或转型效益的创新为主导。与2024年相比,今年将更加强调运营可扩展性和实时智能,并逐渐从以GenAI为中心转向支持可持续人工智能交付的基础推动因素。
预计未来两年内,边缘人工智能、复合人工智能和负责任人工智能将实现主流应用。边缘人工智能将通过使计算更接近数据源来实现更高效的数据处理,并进一步提升人工智能的潜在应用范围。复合人工智能将通过集成多种人工智能技术来增强人工智能系统的稳健性。负责任人工智能将确保这些进步以合乎道德和透明的方式实施,为人工智能系统的信任和问责铺平道路。
在未来两到五年内,预计多项关键人工智能技术将达到生产力平台期,推动各行各业取得重大进展。这些技术包括人工智能工程和模型运营(ModelOps)等基础技术,它们能够简化人工智能系统的集成和管理;以及生成式人工智能和多模态人工智能等新兴技术,它们能够增强内容创作和数据解读。此外,人工智能治理平台和人工智能关键决策支持模型(AI TRiSM)将在确保人工智能部署的道德和安全方面发挥关键作用。这些发展将共同催生更稳健、更具创新性和更负责任的人工智能应用,从而彻底改变企业和组织的运营方式。
未来五到十年,AI就绪数据和AI模拟预计将显著增强AI在各行各业的部署。AI就绪数据将确保数据集针对AI应用进行优化,从而提高准确性和效率。同时,AI模拟将提升预测能力和场景测试能力,而AI财务运营(FinOps)将简化AI投资的财务管理,共同推动更高效的AI实施。
诸如通用人工智能之类的长期创新,虽然拥有颠覆性潜力,但也面临科学、伦理和地缘政治方面的障碍。持续的研究和生态系统的协调发展对于这些创新的演进至关重要。
人工智能领导者必须在雄心勃勃的探索与运营纪律之间取得平衡,提高转型能力,同时确保近期投资以可扩展、适合用途的人工智能解决方案为基础。
2025年人工智能优先级矩阵
影响力 | 距离主流采用的时间 | |||
不到2年 | 2至5年 | 5至10年 | 超过10年 | |
颠覆 | ||||
较高 | ||||
中等 | ||||
偏低 |
来源:Gartner(2025 年 6 月)
上升期的技术
1、人工智能原生软件工程
影响力评级:颠覆
市场渗透率:不到目标受众的1%
成熟度:萌芽阶段
定义:AI 原生软件工程是一套新兴的实践和原则,旨在优化使用基于 AI 的工具来开发和交付软件应用程序。这意味着 AI 能够自主或半自主地执行软件开发生命周期 (SDLC) 中相当一部分的任务。例如,开发人员使用 AI 代理,通过感知来自开发环境的输入来主动推荐和执行操作,从而实现端到端工作流程的自动化。
为什么重要
如今,开发人员使用的基于人工智能的工具(例如人工智能代码助手和人工智能测试工具)仅限于编码和测试活动。然而,Gartner 预测,未来人工智能将成为大多数软件工程任务不可或缺的组成部分,并成为其原生功能,从而改变开发人员的工作性质和工作方式。人工智能原生软件工程实践至关重要,因为它们使开发人员能够专注于需要批判性思维、人类智慧和同理心的有意义的任务。
商业影响
AI 原生软件工程有望为开发者、产品团队和业务利益相关者带来诸多益处。基于 AI 的工具将帮助开发者摆脱繁琐的日常工作。这些工具将作为创意伙伴,激发人类创造力,并支持产品团队产生新想法。产品团队可以利用 AI 分析做出数据驱动的产品路线图决策,从而验证或反驳人类的主观决策。之后,团队可以加快原型创建速度,从而加快可行性研究,并规划出明智的未来发展方向。
驱动因素
-
实现生产力和性能的阶跃式提升:随着基于人工智能的开发工具的出现,软件工程已实现人工智能增强,但整体方法和软件开发生命周期 (SDLC) 尚未实现转型。人工智能增强已应用于传统 SDLC 中的许多任务,以逐步缩短交付周期、缩短周期并提升质量。这促使软件工程领导者探索实现生产力和性能阶跃式提升的方法。
-
提升人类创造力:团队可以利用基于人工智能的开发工具中的多模态功能来提升人类创造力。产品经理或用户体验设计师无需面对空白画布,而是可以使用人工智能设计工具将文本提示、屏幕截图或纸质草图转换为图像和视觉原型。然后,他们可以对设计进行迭代。一旦设计完成,用户体验设计师就可以将这些设计转换为 HTML 和层叠样式表 ( CSS)。
-
将意图转化为行动:一些 AI 原生应用构建器的早期预览版,例如 StackBlitz 的 Bolt、谷歌的 Firebase Studio、Vercel 的 V0 以及 Lovable,展示了将用户意图转化为行动的能力。用户可以从最终用户的角度描述需求,而不是技术规范。这标志着我们向计算机表达意图的方式发生了根本性转变——从精确的指令到用自然语言描述期望状态。OpenAI联合创始人兼 Eureka Labs 创始人 Andrej Karpathy 创造了“氛围编码”一词来描述这种“忘记代码存在”的全新编程范式。需要注意的是,氛围编码的定义目前仅限于实验原型,并不适合将应用程序投入生产。
-
激发积极的开发者情绪:总体而言,开发者热衷于尝试新工具。Gartner 最近对来自 51 家企业的5,112 名软件开发团队成员进行了一项调查,结果显示,54% 的软件开发团队成员认为拥有实验和创新的自由是开发者体验最重要的方面之一。开发者对 AI 的积极态度正在推动企业内部采用 AI 原生工程实践。
障碍
-
过度信任人工智能输出:人工智能原生方法给开发人员和知识型员工带来了新的负担。开发人员越来越多地将任务委托给基于人工智能的工具,而这些工具本身就存在不确定性和幻觉的风险。因此,盲目信任未经验证和解释的人工智能输出可能会带来严重的商业风险,包括声誉损害。GitClear 的《2025 年 AI Copilot 代码质量报告》显示,与前几年相比,2023 年至 2024 年间的代码克隆数量增加了四倍,重复代码块的流行率也大幅上升。
-
安全风险增加:AI 工具扩大了威胁面,涵盖了它们发起和参与的所有事件和交互链,包括那些人类或系统操作员无法察觉的事件和交互。这种扩大的威胁面增加了出现不可预见的漏洞和安全漏洞的可能性。开发人员必须将代理工作流程纳入评估和缓解软件供应链风险的考量。
-
多智能体工作流中幻觉风险的复合性:在多智能体工作流中,幻觉风险会复合性地增加,因为AI生成的上下文会从一个AI智能体传递到另一个。模型过度扩展也是智能体系统的一个问题——模型执行的操作超出了要求,因为在训练数据中,它通常比你所需的部分做得更多。例如,你可能要求它编写一个“搜索”脚本,但它会创建一个执行“搜索和替换”的脚本。
用户建议
-
利用新兴的 AI 工具和技术,重新思考开发者工作流程,从而提高生产力并增强上游创意工作。上游用例包括产品发现、产品设计、用户情绪分析和功能优先级排序。
-
当支持 AI 的开发人员工具(可能是 AI 代理)将工作从一个工具转移到另一个工具时,通过共享上下文来提高生产力并最大限度地减少幻觉。
-
通过评估基于代理的工具自动化重复性工作的能力,以及让人类参与监督、验证和解释的能力,确定其低风险、高价值用例的优先级。为了保持高质量,人类开发人员必须在整个软件开发生命周期 (SDLC ) 中审查代码、使用测试工具并建立安全性和合规性护栏。
-
探索如何通过根据业务关键性、风险阈值和任务复杂性对任务进行细分,从而从自主改进循环中获益。软件工程领导者需要寻找机会,让这些自主循环在不增加风险的情况下创造业务价值。
2、量子人工智能
影响力评级:较低
市场渗透率:不到目标受众的1%
成熟度:萌芽阶段
定义:量子人工智能是量子技术与人工智能交叉领域中新兴的研究领域。量子人工智能旨在利用量子力学的独特属性,开发性能超越经典算法的全新、更强大的人工智能算法,从而有望催生出可在量子系统上运行的新型人工智能算法。
为什么重要
量子人工智能是一个活跃的研究领域。一旦实现商业化,量子人工智能有望在以下方面发挥作用:
-
使组织能够使用量子系统更快地解决高级人工智能分析问题,同时仅使用传统人工智能超级计算所需的一小部分资源。
-
开发利用量子力学的新型人工智能算法,提供超越传统系统所能执行的功能。
-
解锁包括药物发现、能源行业和物流在内的颠覆性应用。
商业影响
虽然目前尚处于萌芽阶段的量子人工智能领域对商业的影响较小,但当经过验证的技术成熟时,量子人工智能将在各个行业中带来竞争优势;例如:
-
生命科学:通过缩短时间、降低成本和改善结果来改变药物发现。
-
金融:优化投资组合、降低风险并改进欺诈检测系统。
-
材料科学:通过发现新材料彻底改变能源运输、制造业并创造新的收入来源。
驱动因素
-
在扩展量子系统和改进纠错方案方面正在取得稳步进展。
-
量子技术的炒作正在推动更多企业和研究人员探索量子与人工智能的交叉领域。
-
量子系统创新步伐的加快(包括更大量、更高质量的量子比特,以及量子系统更高的稳定性和可靠性)正在推动人们对量子人工智能等领域应用的更大兴趣。
-
量子计算即服务的进入降低了进入门槛,鼓励研究人员之间进行更深入的合作,并促进新算法和技术的探索。
-
全球各国政府和企业正在增加对量子(和量子人工智能)研究的资助,从而加速创新。
-
GenAI 炒作的光环效应正在推动人们重新关注包括量子 AI 在内的替代研究技术,这些技术可能会带来新的颠覆性成果。
-
大学和培训项目正在制定计划和课程,以培养一支具备量子能力的劳动力队伍。
障碍
-
硬件限制:当前的量子系统虽然越来越稳定,但仍然容易出错且固有噪声,限制了它们的实用性和对实用量子人工智能的影响。
-
算法限制:虽然已经提出了几种量子人工智能算法,但很少有算法经过审查和验证,而且它们还远远没有达到企业级的水平。
-
成本:尽管实用性有限且易于广泛使用,但快速发展的噪声中型量子 (NISQ) 系统相对昂贵,这可能会抑制设计量子 AI 算法所需的研究和开发工作。
-
系统的可扩展性:将量子系统扩展到企业级量子人工智能所需的水平仍然是一个主要的技术障碍。
-
计算范式:将传统数据和分析管道与量子相结合本质上具有挑战性,因为量子系统从数据表示角度和计算(非冯诺依曼模型)角度来看都采用根本不同的范式运行。
用户建议
-
优先投资人工智能和通用人工智能,而非量子人工智能。量子人工智能尚处于萌芽阶段,不值得重点投资,且不太可能在未来两到三年内产生实质性收益。
-
通过赞助学术研究与当地大学合作,作为降低量子人工智能投资风险的一种手段,并建立从大学到产业的人才输送渠道。
-
创建一个量子人工智能机会雷达,使您能够跟踪底层技术和量子人工智能算法的进展,使您能够在量子技术萌芽领域的发展过程中最大化价值创造。
-
将量子用例从狭窄的人工智能环境扩展到其他领域,包括材料模拟、搜索、优化和其他新兴算法领域。
3、第一性原理人工智能
影响力评级:颠覆
市场渗透率:目标受众的5%至20%
成熟度:成长期
定义:第一性原理人工智能(FPAI,又称物理信息人工智能)将物理和模拟原理、控制定律和领域知识融入人工智能系统。相比之下,纯数字人工智能模型不一定遵循物理系统的基本控制定律和第一性原理,也无法很好地推广到未经训练的场景。FPAI 将人工智能工程扩展到复杂系统工程和基于模型的系统,例如基于代理的系统。
为什么重要
随着人工智能在工程和科学领域应用的扩展,它需要更强大的问题建模能力和更好地表征其情境的能力,但纯数字化人工智能解决方案无法在训练之外进行充分的泛化,这限制了它们的适应性。相比之下,FPAI 能够更可靠地表征情境和物理现实,从而产生更稳健、自适应性更强的系统。这可以缩短训练时间,提高数据效率,实现更好的泛化,并增强物理一致性。
商业影响
物理上一致且科学合理的人工智能模型可以显著提升适用性,尤其是在工程用例中。FPAI 有助于使用更少的数据点训练模型,并加速训练过程。因此,模型可以更快地收敛到最优解。FPAI 提高了模型的泛化能力,使其能够对未知场景做出可靠的预测,包括对非平稳系统的适用性,并增强了透明度和可解释性,从而提升了可信度。
驱动因素
-
更灵活地表示系统上下文和条件:FPAI方法能够提供更大的上下文灵活性,使开发人员能够构建更具自适应性的系统。传统的业务建模方法一直很脆弱。这是因为构成解决方案的数字构建块无法在其初始训练数据之外进行充分的泛化,从而限制了这些解决方案的适应性。
-
额外的物理知识表示:例如,FPAI方法提供物理方程(例如偏微分方程)来指导或约束 AI 模型。AI技术,尤其是机器学习 (ML) 领域的技术,存在严重的局限性,尤其是在因果关系和依赖关系分析、可接受值、上下文灵活性和记忆保留机制方面。以资产为中心的行业已经开始在物理原型设计、预测性维护或复合材料分析等领域利用FPAI 。
-
建模挑战:气候模型、大规模数字孪生以及复杂的健康科学问题等复杂系统尤其难以建模。复合人工智能方法为这些问题提供了更具体的答案和可管理的解决方案,但其工程设计仍然是一项重大挑战。
-
简化并丰富人工智能方法:第一性原理知识定义了问题和解决方案的边界,缩小了机器学习传统蛮力方法的范围。例如,基于第一性原理的语义可以揭示深度伪造。
-
需要更强大、适应性更强的业务模拟系统:通过更好的上下文建模和更准确的知识表示技术,FPAI 模拟将更加可靠,并能考虑更广泛的可能场景——所有这些都更好地——以现实为基础。
-
基于人工智能的系统的出现:这些系统能够促进数字和模拟模型的有效结合,进而促进 FPAI 的使用。
障碍
-
在基准数据集和问题上对这些模型进行系统测试和标准化评估可能会减缓FPAI功能的采用。
-
以有效的方式在大型数据集上扩展复杂 FPAI 模型的训练、测试和部署将是一个计算挑战。
-
物理学家、数学家、计算机科学家、统计学家、人工智能专家和领域科学家等众多不同群体之间的合作将带来资源挑战。
-
蛮力方法在人工智能领域很普遍,数据科学家很容易实施,而第一性原理则需要对某个主题有额外的基础知识,这需要一个多学科团队。
-
由于缺乏工程师或主题专家的帮助,开发人员很难确定第一性原理方法的范围,这也成为引入这些方法的一大障碍。
用户建议
-
通过识别无法减少的错误和无法解决的差异(包括数据质量)来设定切合实际的发展目标。
-
鼓励可复现、可验证的模型,从小范围的问题入手。从科学角度来看,复杂系统通常是这种方法的理想选择。
-
执行测试相关领域物理学和基于第一性原理的模型的准确性和物理一致性的标准,同时描述不确定性的来源。
-
促进FPAI模型的模型一致性训练,并训练具有代表应用的数据特征的模型,例如噪声、稀疏性和不完整性。
-
量化关于性能如何随着对未知的初始和边界条件和场景的推断程度而下降的普遍性。
-
确保多学科人工智能团队中具有领域专业知识的相关角色和教育,以便团队能够开发有效且可验证的解决方案。
4、人工智能治理平台
影响力评级:较高
市场渗透率:目标受众的1%至5%
成熟度:新兴
定义:AI治理平台提供AI应用程序、代理以及企业中每个独特用例的集中视图。它根据政策、法规和行业标准等公认的框架衡量绩效。除了集中用例存储库外,它还整合风险管理活动,自动化新用途的工作流程审批,并在单一连续工具中针对AI关键元素应用所需级别的技术实施。
为什么重要
人工智能正在迅速蔓延。尽管安全部署人工智能需要各领域的专业知识,但人工智能领导者越来越多地承担起监督人工智能的责任。监督还能确保人工智能的使用和价值基于预定标准得到认可。人工智能治理平台正在成为一个独特的市场,它将传统的治理、风险和合规产品功能与基本治理规则的自动化和执行相结合,以验证人工智能的安全性、价值和预期性能。
商业影响
我们观察到,尽管各组织可能采取不同的方法,但 AI 治理已变得更加集中化。AI 治理平台应运而生,以满足这一需求,并满足部署 AI 所需的治理、风险管理和合规性要求。AI 治理平台可以显著提高运营效率,有效地与跨职能利益相关者互动,并在运行时强制执行策略,所有这些都有助于 AI 在企业规模化中取得整体成功。
驱动因素
-
人工智能日益普及的特性以及对透明度和问责制的需求凸显了强有力的人工智能治理的必要性。
-
全球法规直接或间接地针对与人工智能相关的问题,例如偏见、安全(Security)、安全(Safety)和伦理问题,以及缺乏透明度和问责制,这增加了合规性的复杂性。整合的视角对于通过审批、验证、审计和可观察性实施技术控制和监督至关重要,从而使企业能够大规模运营。
-
组织制定的人工智能治理原则和政策缺乏监控和执行,这些原则和政策适用于生产中的人工智能用例。
-
为了有效地监督人工智能并大规模部署,人工智能治理将需要技术来实施人工智能治理控制,以制定和执行新的企业人工智能要求。
-
成功的人工智能治理需要跨职能领域的专业知识,包括法律、合规、风险、网络安全、IT 和数据分析,以建立共同的目标、分类法和框架。然而,由于优先事项的相互竞争,这一点难以实现。这降低了治理的有效性,并增加了风险。
-
企业已经并将继续在产品层面进行安全评估,但这远远不够。必须针对每个支持 AI 的功能和用例进行 AI 评估。
-
利益相关者对信任的要求越来越高,组织利用高水平负责任的人工智能原则和人工智能可接受使用政策来增强对组织的产品、服务和整体品牌的信心。
-
企业 AI 的实施范围正在不断扩大,涵盖了机器学习、计算机视觉、大型语言模型等各种 AI 模型,同时也带来了新的风险。企业需要一个平台,能够全面了解企业 AI 产品组合、决策记录、责任追究、风险、风险缓解措施以及可靠性能。
障碍
-
人们对谁应该负责人工智能治理存在困惑(例如,法律、网络安全、数据和分析、IT)。
-
AI治理团队将与数据和分析团队、IT治理团队、MLOps团队以及网络安全团队已经监控和执行的部分(但并非全部)运营政策重叠。这需要在组织内部划定明确的界限,同时为这一新职能留出空间。
-
人工智能用例和优先级的多样性要求组织决定单一的人工智能治理通用平台或多种工具的组合是否最适合他们的需求。
-
由于对AI治理能力缺乏了解,供应商们纷纷将“AI治理”作为市场推广策略。这不仅让买家感到困惑,还让他们买到了言过其实、交付不足的产品。
-
全球法规和标准千差万别,尽管合规所需的控制措施类似,但预期结果可能会相反。
-
快速的进步使得一些功能变得过时,并需要滞后于进步的新功能。
用户建议
-
定义足够精细的可接受使用政策,以便适用于 AI 用例。可接受使用应与更广泛的企业负责的 AI 原则相一致。
-
建立审查和批准工作流程,以对新用例进行低接触或高接触审查和证明。
-
建立企业内部部署人工智能的企业风险承受能力,在单一风险评分中计算风险和价值。
-
使用风险评分来分类谁需要审查和批准人工智能以及如何监控人工智能,包括技术控制。
-
评估人工智能的性能与风险承受能力,并部署人工智能的技术控制措施。所有用例都应在某种程度上进行此项工作。
-
确定哪些治理流程需要转化为技术以有效扩展人工智能并定义您对人工智能治理平台的要求。
-
检查您所在行业的平台供应商参考信息。确保参考信息中也包含您所需的功能。
5、因果人工智能
影响力评级:较高
市场渗透率:目标受众的1%至5%
成熟度:新兴
定义:因果人工智能 (Causal AI) 识别并利用因果关系,超越基于相关性的预测模型或生成模型,打造能够更有效地指示行动、更自主行动的人工智能系统。它包含多种技术,例如因果图和模拟,有助于揭示因果关系,从而改进决策。
为什么重要
人工智能的最终价值在于做出更明智的决策并采取有效的行动。然而,目前基于相关性的生成和预测方法存在局限性。它们不仅透明度非常有限,而且生成或预测结果并不等同于理解其成因以及如何改进。当系统需要更加透明可靠地识别和制定行动以实现正确的业务成果时,因果人工智能至关重要。
商业影响
因果人工智能将导致:
-
决策智能或人工智能决策中更可靠的增强和自主性。
-
通过利用在不断变化的环境中仍然有效的因果关系,实现更高的稳健性和适应性。
-
利用各种人工智能技术提取因果知识(也称为因果发现)的能力,有时与模拟相结合,可以减少现实世界实验(例如A/B 测试)的时间和成本,尽管仍然需要验证。
驱动因素
-
在决策智能的背景下,分析需求正从预测能力转向更具规范性的能力。理解如何影响预测结果并优化决策的因果关系变得越来越重要。
-
人工智能(尤其是代理型人工智能)系统越来越需要自主行动,尤其是在时间敏感且复杂的、人类无法参与的用例中。只有人工智能能够理解行动将产生的影响以及如何进行有效干预,才能实现这一目标。
-
某些用例的数据可用性有限,需要更高效的数据技术,例如因果人工智能 (Casual AI),并可能与合成数据相结合。因果人工智能利用人类对因果关系的领域知识,在小数据情况下引导人工智能模型。
-
业务日益复杂和动态化,需要更稳健的人工智能技术。基于历史数据训练的关联性人工智能模型非常脆弱,在面对渐进式变化(更不用说颠覆性变化)时会失去准确性。因果结构的变化比统计相关性慢得多,这使得因果人工智能在快速变化的环境中更加稳健且适应性更强。
-
对更高人工智能信任度和可解释性的需求,推动了人们对更符合人类直觉的模型的兴趣。因果人工智能技术(例如因果图)可以明确说明原因,并以人类理解的方式解释模型。
-
生成式人工智能 (GenAI) 可以加速因果人工智能的实施。GenAI 正在成为一种新兴的辅助工具,用于探索文档和其他数据源中现有的因果知识。这些知识随后可用于生成候选因果图。虽然仍然需要人工验证或完成,但可以减少耗时的手动工作。
-
人工智能的下一步发展需要因果人工智能。当前的深度学习模型,尤其是大型语言模型 (LLM) 以及用于 GenAI 和人工智能代理的“推理”模型,在可靠性方面存在局限性。一种复合人工智能方法,例如将 LLM 与因果人工智能(尤其是因果知识图谱)相结合,为将人工智能提升到更高水平提供了一条充满希望的途径。
障碍
-
因果关系并非微不足道。并非所有现象都易于建模,其原因和结果可能与诸多因素相关。尽管人工智能在因果关系探索中的应用日益广泛,但因果关系可能存在延迟、循环、未知或难以验证等问题。
-
因果人工智能模型的质量取决于其因果假设以及用于构建该模型的数据。这些数据容易受到偏差和不平衡的影响,并且可能无法完整地代表所有已知或未知的因果因素。
-
因果人工智能需要技术和领域专业知识才能正确评估因果效应。构建因果人工智能模型通常比构建基于相关性的预测模型更困难,需要领域专家和人工智能专家之间的积极协作。
-
AI专家可能不了解因果关系方法。如果AI专家过度依赖机器学习 (ML) 或大语言模型 (LLM) 等数据驱动模型,组织在实施因果关系AI时可能会遭遇阻力。
-
企业级应用经验有限。当组织运行初始因果人工智能试点项目,并希望将其扩展到更大、可能更复杂的因果模型时,这会带来挑战。
用户建议
-
应用因果人工智能来替代或补充现有的人工智能方法,包括机器学习、生成人工智能和代理人工智能,以实现更高的可靠性和透明度。
-
当需要更多增强和自动化时,请使用因果人工智能。例如,客户保留计划、营销活动分配和金融投资组合优化中的决策智能用例,以及智能机器人和自主系统。
-
根据具体用例的复杂性选择不同的因果 AI 技术。这些技术包括用于因果发现、因果规则推理、因果图、贝叶斯网络或模拟的机器学习 (ML) 或法理学硕士 (LLM)。
-
对AI 团队进行因果 AI培训。解释因果 AI 和基于相关性的 AI 之间的区别,并介绍可用于整合因果关系的各种技术。
-
让领域专家密切参与因果人工智能计划,以帮助创建、维护或至少验证因果模型。
6、具身人工智能
影响力评级:颠覆
市场渗透率:不到目标受众的1%
成熟度:萌芽期
定义:具身人工智能基于这样一种观点:在特定情境下,智能与具身化密不可分,两者相互塑造。在这种方法中,物理或虚拟人工智能代理的模型经过训练,并与其具身化(用户界面、传感器、外观、执行器或其他感知特定真实或模拟环境并与之交互所需的功能)协同设计。这使得智能任务的执行更加稳健、更具弹性、更具适应性。
为什么重要
具身人工智能旨在创建能够在实际动态环境中自主行动或增强人类能力的人工智能代理,其超越现有人工智能的范畴,包括抽象的大型语言和在决策和行动方面可靠性和有效性有限的“推理”模型。这是通过主动感知和自适应行为实现的,由人工智能代理的智能进行协调,这种智能与人工智能代理的宿主或身体在特定环境中的能力和约束相协调。
商业影响
具身人工智能 (embodied AI) 为更稳健、更值得信赖、更具适应性和更可操作性的人工智能铺平了道路,从而拓展了其适用性和价值创造。在需要更多实践知识、物理常识、社交和情感智力,以及更强的适应力以应对现实世界或虚拟环境中的动态和意外事件的情况下,这一点尤为重要。其示例用例包括自动驾驶汽车和智能机器人,以及虚拟助手或游戏角色。
驱动因素
-
GenAI 和代理 AI 的最新进展令人印象深刻,但 AI 仍然存在很大的局限性,特别是在处理现实的动态和复杂性方面的可靠性方面。
-
逼真的3D/4D模拟、虚拟/增强/混合现实以及游戏领域的进步。结合强化学习进行自适应行为训练,这可以实现AI代理的实体化和智能化基线版本的共同进化,并在真实环境(无论是物理环境还是虚拟环境)中进一步部署和改进。
-
新兴方法包括世界模型、物理信息或第一原理人工智能(代表物理定律或工程启发式等)、自适应人工智能(在操作期间学习)、情感人工智能(在社会背景下理解和表达感受)、复合人工智能(例如,使用神经符号人工智能进行时空推理)和因果人工智能(代表因果关系)。
-
传感器技术、机器人工程以及用于更自然的力学和触觉界面(与物理环境中体现的人工智能相关)的新材料等领域正在不断创新。
-
关于智力的科学见解正在不断发展;智力不再被视为一个仅与大脑相关的中心概念。感知、情感、推理和行为等认知特征通常分布于身体的多个部位,并共同进化。
-
人们正在投入资金研究未来通用人工智能的发展,而基于智能与其与环境交互的运行实体密不可分的观点,具身人工智能正日益被视为其中的关键一步。这意味着,智能并非抽象而来,而是通过设计植根于现实,并有望为其知识表征和“原生”常识提供内在意义或语义。
障碍
-
世界极其复杂、难以预测,甚至混乱。正因如此,逼真的模拟、高效的机器人技术以及真正的自动驾驶汽车等技术的发展才显得如此艰难。
-
现实世界的交互需要实时、高响应度的人工智能,即使在能源和计算资源有限的情况下(例如在移动设备或边缘设备上)。然而,更轻量级、更节能的人工智能并非易事。
-
具身人工智能有望实现更自主的人工智能。然而,这不仅可能助长其善意使用,也可能助长其恶意使用。然而,对负责任的人工智能进行有效的监管和风险管理并非必然。
-
根据使用情况,人工智能的体现在设计上可能不必要地具有人性化,从而带来额外的复杂性和挑战。
-
具身人工智能需要机器学习、 GUI设计和机械工程等不同领域的专家之间的多学科合作。
用户建议
-
确定可能受益于应用具身人工智能的用例,包括更多虚拟领域(例如在线客户互动或知识工作者增强)和更多物理领域(例如制造、物流、医疗保健或设施管理)。
-
探索具身人工智能 (embodied AI) 的价值,通过减少现有人工智能的局限性,例如更好地解读仓库中的物理限制或客户互动中的文化规范。这可能会提高人工智能使用的安全性或减少偏见。
-
拓展人工智能代理的开发或训练思路。从单纯的建模方法转向思考如何将智能转化为人工智能模型与代理实体设计之间的协同作用。例如,这可能与虚拟代理的面部表情或物理代理的运动协调相关。
7、人工智能模拟
影响力评级:较高
市场渗透率:目标受众的1%至5%
成熟度:成长期
定义:人工智能模拟是人工智能与仿真技术的结合应用,旨在共同开发人工智能代理及其可用于训练、测试甚至部署的模拟环境。它既包括利用人工智能提高模拟的效率和实用性,也包括利用各种仿真模型开发功能更强大、适应性更强的人工智能系统。
为什么重要
决策复杂性的增加推动了对人工智能和模拟技术的需求。然而,当前的人工智能面临着挑战,因为它难以改变,而且通常需要大量数据。相反,逼真的模拟系统构建和运行成本高昂且难度大。为了应对这些挑战,一种日益流行的方法是将人工智能与模拟技术相结合:模拟技术用于增强人工智能的鲁棒性并弥补训练数据的不足;人工智能则用于提高模拟的效率和真实性。
商业影响
AI模拟可以带来:
-
通过将人工智能的应用范围扩大到数据稀缺、私密或机密的情况,使用模拟来生成合成数据(例如,用于自动驾驶训练的合成数据),从而增加价值
-
利用人工智能减少创建和使用复杂逼真的模拟的时间和成本,从而提高效率
-
通过使用模拟生成不同的场景,提高人工智能在不确定环境中的性能,从而提高稳健性
-
通过重复使用模拟环境来训练未来的人工智能模型,减少技术债务
驱动因素
-
人工智能训练数据的有限性,增加了对模拟等合成数据技术的需求。模拟技术(例如基于物理的3D模拟)在生成多样化的人工智能训练数据集方面具有独特的优势。模拟能够生成各种“极端情况”,这些情况在现实世界数据中并不常见,但对于人工智能的训练和测试仍然至关重要。
-
能力的进步使得模拟对人工智能越来越有用。在计算性能提升和技术更高效的推动下,模拟能力正在快速提升。
-
对学习模拟(称为“世界模型”)的研究正在推动人们对人工智能模拟的兴趣。越来越多的研究致力于训练世界模型,这些模型能够根据环境的当前状态和智能体的行为来学习预测环境的演变。这些学习模拟无需直接指定模拟参数,从而提高人工智能模拟的可行性。
-
具身人工智能 (embodied AI) 的兴起,正在增加对人工智能模拟的需求。模拟环境通常是通过强化学习来训练具身人工智能(适应其物理或虚拟环境的人工智能)的主要方式。人们对机器人等具身人工智能系统的兴趣日益浓厚,这推动了人工智能模拟的需求。
-
人工智能技术债务的增加推动了对仿真所提供的可复用环境的需求。组织将越来越多地部署数百个人工智能模型,这需要将重点转向构建持久、可复用的环境,以便在其中训练、定制和验证许多人工智能模型。仿真环境是理想的选择,因为它们可复用、可扩展,并且能够同时训练多个人工智能模型。
-
模拟的日益复杂推动了人工智能的应用,使其更加高效。现代模拟是资源密集型的。这推动了人工智能的应用来加速模拟,通常是通过使用能够取代部分模拟过程的人工智能模型,而无需运行资源密集型的、逐步的数值计算。
障碍
-
模拟与现实之间的差距:模拟只能模拟(而非完全复制)真实世界系统。随着模拟能力的提升,这种差距将会缩小,但它仍将是一个关键因素。鉴于这一差距,在模拟中训练的人工智能模型在部署后可能无法获得相同的性能;模拟训练数据集和真实世界数据的差异可能会影响模型的准确性。
-
人工智能模拟管道的复杂性:人工智能和模拟技术的结合可能会导致管道更加复杂,更难测试、验证、维护和排除故障。
-
采用人工智能模拟的准备程度有限:人工智能从业者缺乏对利用模拟能力的认识,可能会阻碍企业实施人工智能模拟方法。此外,人们还会对模拟的质量和准确性心存疑虑,从而限制其潜在的应用。
-
供应商市场分散:人工智能和模拟市场分散,很少有供应商提供组合人工智能模拟解决方案,这可能会减缓这种能力的部署。
用户建议
-
通过模拟补充人工智能,以优化(业务)决策或通过提供用于合成数据生成或强化学习的模拟环境来克服现实世界数据的缺乏。
-
利用人工智能 (AI) 补充模拟,应用深度学习加速模拟,并利用生成式人工智能创建逼真的模拟内容(包括图像、视频和文本),从而增强模拟效果。此外,还可以将人工智能代理嵌入到模拟中,使其更加逼真。
-
在人工智能和仿真团队、项目和解决方案之间建立协同效应,从而为日益复杂的用例打造新一代更具适应性的解决方案。逐步构建一个通用且互补的模型基础,这些模型可在不同的用例、业务环境和生态系统中重复使用。
-
通过优先考虑提供集成不同人工智能技术(复合人工智能)和模拟的平台的供应商,为人工智能、模拟和其他相关技术(如图形、自然语言处理或地理空间分析)的结合使用做好准备。
8、世界模型(World Models)
影响力评级:颠覆
市场渗透率:不到目标受众的1%
成熟度:新兴
定义:世界模型是学习到的环境抽象表征。它们使人工智能系统能够通过模拟潜在的未来状态并帮助理解所采取行动的后果来进行预测。
为什么重要
由于安全隐患、数据覆盖范围受限、对新情况的适应能力有限以及缺乏因果推理能力等挑战,人工智能系统难以在物理环境中有效运行。世界模型对于有效地基于环境形成表征、构建计划以及模拟事件及其结果至关重要。它们能够洞察环境中行为的潜在影响,这对于人工智能代理至关重要。
商业影响
-
通过捕捉环境的基本原理和规律,世界模型能够根据当前条件和行动模拟和预测未来的状态和结果。这使得人工智能系统能够获取知识,完善模型,并将学到的见解应用于新情况,即使在陌生的环境中也能做出明智的决策。
-
世界模型可以为人工智能应用程序提供一个受控的实验环境,让研究人员和开发人员在现实世界部署之前探索不同的策略、算法和政策。
驱动因素
-
世界模型适用于从电影制作到自动驾驶汽车和机器人等各个领域。它们能够进行模拟并预测复杂的交互,使其成为人工智能代理在各个领域实现创新和效率的宝贵工具。
-
世界模型使人工智能能够执行更复杂的预测和规划任务,超越仅仅基于观察数据的模式识别。通过模拟和理解环境的动态,人工智能可以更好地处理不确定性或缺失信息,从而做出明智的决策,以应对未来的可能性和突发事件。
-
这些模型可以通过结合物理定律和约束来增强生成视频内容的真实感和可信度。这确保生成的视觉效果符合物理原理,从而带来更逼真、更身临其境的体验。
-
世界模型基于来自现实世界场景中运行的机器人的大量多模式数据集进行训练,同时结合第一性原理人工智能能力,可以指导机器人进行物体操作和与环境的交互。
-
世界模型帮助具身人工智能理解关联、反事实、交互,并建模世界动态。它们不仅能够总结观察到的内容,还能有效地模拟潜在场景来预测结果,从而能够选择最佳行动。
-
控制理论和认知科学的研究,例如联合嵌入预测架构(JEPA),强调了构建世界模型的替代方法。
障碍
-
模拟真实世界环境并推断因果关系是人工智能最具挑战性的领域之一,因此构建世界模型至关重要。反事实推理需要模拟假设的原因并预测结果,但目前的模型存在局限性。
-
模拟物理定律对于世界模型来说极具挑战性,尤其是在捕捉现实世界的物理规则时。现有的合成视频生成模型(例如 Sora)能够模拟物体运动和光反射等现象,但难以处理流体动力学和空气动力学等复杂的物理效应,缺乏准确性和一致性。
-
支持世界模型的技术主要依靠数据内插,而非外推。现实世界存在诸多不确定性,使得世界模型难以建立。
-
与人类不同,世界模型需要大量的情境和上下文组合,导致计算成本高昂。此外,获取现实世界数据面临着公共可用性、安全性和隐私问题等挑战。
用户建议
-
避免仅仅依赖 GenAI 技术进行世界建模作为每个用例的解决方案;相反,利用物理 AI 和认知科学的广泛方法来创建更全面、更有效的模型。
-
利用广泛的多模式数据集(包括图像和声音等感官输入)来训练或定制世界模型,以便在不同场景中更好地理解情境并做出决策。
-
实施策略以减轻世界模型中的偏见和道德问题,确保人工智能系统做出公正、公正的决策。
-
由于这些技术目前仍被炒作所包围,因此需要控制人们对其的预期。首先,通过受限于特定环境(例如游戏场景)的迷你世界模型,在更专注或非关键任务的用例中试用它们。
9、决策智能
影响力评级:颠覆
市场渗透率:目标受众的5%至20%
成熟度:新兴
定义:决策智能 (DI) 是一门实践性学科,它通过清晰地理解和设计决策的制定方式,以及如何通过反馈来评估、管理和改进决策结果,从而推动决策制定的进步。通过将决策数字化并建模为资产,DI 弥合了洞察与行动之间的差距,从而持续改进决策质量、行动和结果。DI 与技术无关,并应用以决策为中心的框架,例如观察、定位、决策和行动 (OODA) 和 Gartner DI (GDI)。
为什么重要
代理人工智能 (Agentic AI) 和通用人工智能 (GenAI) 的炒作、决策自动化面临的监管压力以及近期的全球危机,都暴露了业务流程的脆弱性,以及仍然存在的前数字化、隐性且次优的决策方式。DI的定位超越了创新触发器,旨在通过使决策更明确、更优化、更具适应性和可审计性来应对这些挑战。
商业影响
-
更快、更高质量的决策,这些决策在复杂、情境化和连续性的同时,还具有一致性、合规性和成本效益,从而推动在银行、医疗保健和供应链等领域应对机遇和威胁时的灵活性。
-
持久、有效、高效、可解释且合乎道德的企业范围的 DI 执行可增强利益相关者的及时成果。
-
通过准确、可信、公平、保护隐私和可扩展的以决策为中心的人工智能操作来增强和自动化决策,从而降低风险。
-
决策资产的适应性加强了决策治理和结果的可预测性。
驱动因素
-
动态业务复杂性:不可预测的中断、混乱的环境以及日益加速的数字竞争,需要能够适应的近乎实时的决策模型。决策服务可以通过多模态数据分析、数据科学、优化、专家知识和其他人工智能技术的组合来提供支持。
-
决策孤岛:DI 可以减少碎片化、局部化和隐性决策,从而降低组织效能和效率。它还能满足跨职能部门对决策资产的协调需求,协调业务决策后应采取的行动,以及平衡全局效率和局部适应性的结果优化需求。
-
大量仪表板无法推动行动:尽管“数据驱动”工具和界面激增,但大多数都无法将洞察与行动联系起来,仪表板开发延迟会造成决策延迟、结果不明确以及无法感知决策的影响,从而损害组织效率。
-
人机之间的授权与不信任:人工智能的采用需要透明、可审计的决策模型,以解决伦理问题并确保问责。自动化的人类决策引发了不安,需要监控。
-
监管审查:数据保护、人工智能和社会环境法规要求制定明确的决策文件,以加强合规性、风险意识和风险缓解。明确的决策建模和决策管理推动着对运营流程和观察结果的分析、管理和控制,以执行适用于决策资产的决策治理政策和标准。
-
支持技术的可用性和创新:DI 平台中规则引擎、模拟和优化的融合实际上使 DI 原型和试点成为可扩展的 DI 实现。
-
GenAI 加速 DI:通过 LLM 丰富的情境感知正在加速低代码/无代码业务决策分析师和代理决策自动化试点的复合 AI 模型开发。
障碍
-
商业利益相关者的冷漠、紧迫感不足、文化准备度低、变革管理无效以及缺乏 DI 技能和 AI 素养阻碍了采用。
-
要弥合洞察与行动之间的差距,从而改善结果,需要以决策为中心的愿景,超越数据驱动的教条和从数据到洞察的工作流程。以技术为中心会忽视决策中的心理和社会因素。
-
协作薄弱、运营、交付和组织模式不完善(例如,缺乏DI卓越中心),以及各自为政的决策孤岛,阻碍了DI的有效性。即使是先进的跨部门DI从业者,也难以客观地重新考量关键决策流程。
-
不加选择或过度热衷地采用决策自动化会带来风险,包括意想不到的后果、情境缺失和偏见放大。这会削弱人们对 DI 的信任,并限制 DI 平台的有效使用。
用户建议
-
定义并建模涉及资源分配、不确定性或竞争性方案的关键决策。以此作为试点,构建 DI 势头,并展示其在企业范围内应用的价值。
-
盘点重复性、高影响力的决策及其关键输入。采用以决策为中心的模型,阐明结果、决策逻辑、备选行动方案和必要的观察结果,从而推动持续学习、改进和透明度。
-
通过跨职能的 DI 融合团队,最大限度地提高决策质量、弹性和可追溯性,促进跨部门协作与协调。将决策权委托给最具备相关专业知识和背景的人员。
-
提升员工在决策建模、规范分析和优化方面的技能。研究决策工程师、决策科学家和决策管家的角色。尝试使用 Agentic、GenAI 和其他复合 AI 以及 DecisionOps,以支持整个组织的决策中心化和卓越性。
10、人工智能的财务运营
影响力评级:较高
市场渗透率:目标受众的1%至5%
成熟度:新兴
定义:人工智能财务运营 (FinOps) 是财务运营最佳实践的应用,旨在帮助企业提高人工智能服务的可见性并管理其成本,从而确保高效使用并实现业务效益最大化。运用 FinOps 追踪和衡量人工智能的支出和使用情况,对于优化成本、确保财务问责制并最大化投资回报率至关重要。
为什么重要
成本是短期内威胁人工智能 (AI) 和通用人工智能 (GenAI) 成功的最大因素之一。人工智能工作负载,尤其是在云环境中,通常使用昂贵的基于 GPU 的计算基础设施,并以不可预见的方式消耗代币,如果监控不当,将导致不可预测的开支。部署和管理人工智能解决方案会产生其他成本,包括开发、治理和变更管理。使用财务运营 (FinOps) 来跟踪和衡量人工智能的支出和使用情况,对于优化成本、确保财务问责制和最大化投资回报率 (ROI) 至关重要。
商业影响
FinOps 通过提供实时成本可见性和控制,帮助企业优化 AI 支出,使团队能够高效分配资源,防止预算超支,同时还能防止可能导致停机或速度下降的资源配置不足。FinOps 还能增强财务、工程和运营团队之间的协作,确保AI 投资符合业务目标,同时确保成本效益。通过 FinOps 实践,企业可以最大限度地提高 AI 计划的投资回报率,并利用预留实例、工作负载自动化/优化和基于使用量的定价模型等成本节约机会。
驱动因素
-
人工智能的采用,尤其是人工智能应用和 GenAI,导致大多数企业的云成本飙升。隐性成本和难以预测的发票使企业难以更广泛地部署人工智能。
-
由于计算需求波动、人工智能服务定价变化、隐藏的基础设施成本以及跨用户和应用程序的模型训练和推理的指数级扩展,跟踪人工智能成本和使用扩展非常复杂。
-
初入AI和/或云计算领域的企业往往难以应对AI成本波动,需要通过采用AI财务运营(FinOps)来调整其原有的运营模式和预算实践。许多企业在追踪和衡量AI成本与具体业务效益之间的关系方面面临挑战。
-
工程团队在使用人工智能服务和实现持续成本效益所需的许多动态层方面通常还不成熟。
-
AI 用例的总拥有成本 (TCO) 可能与具有固定成本和用途的传统软件应用程序的成本有所不同。持续训练、切换到新模型、GPU 等专用基础设施以及特定数据类型(文本、图像、视频、音频)的处理成本差异,都构成了持续的 AI 成本。
-
许多人工智能模型和服务都基于消费定价模型,并且可以购买多种版本或变体。
-
定价也可能受多种因素影响,例如使用情况、模型选择、准确性和性能保证。价格波动速度之快,需要持续主动地评估性价比和准确性。
障碍
-
实施 AI 的 FinOps 具有挑战性,因为AI 工作负载具有不可预测和动态的性质,并且成本因素复杂多样,与传统云操作相比,成本估算、预算和优化更具挑战性。
-
平衡性能和成本效率很困难,因为人工智能模型通常需要专门的计算基础设施资源、GPU 和大型数据集,如果不对其进行有效监控和优化,可能会导致过多的云支出。
-
许多组织在财务、运营和工程团队之间的跨职能协作方面遇到困难,因为将特定于人工智能的成本洞察与业务目标相结合需要文化转变和增强对人工智能驱动支出的可见性。
用户建议
-
追踪 AI 使用的总拥有成本 (TCO) :实时追踪总运行成本,包括云成本、基础设施成本和人工成本。使用标记和成本分配策略将费用分配到特定的 AI 项目或部门。将预算分配给 AI 相关的资源和服务组,并在消耗超出预算目标时触发成本告警。
-
优化AI 支出和工作负载:跟踪打包和定制 SaaS、AI 中的 AI 支出-利用商业模型(通过 API 调用的令牌)并从托管模型进行计算。
-
了解购买模型与自行构建模型的利弊:模型提供商构建的封闭式模型乍一看可能更昂贵,但它们可以缩短交付时间、降低前期开发成本,并减少对更昂贵技能的需求。为真正具有战略意义的用例构建模型。
-
采用敏捷方法进行模型切换:定期将正在使用的模型与其他选项进行比较,以查看是否可以以更低的成本实现相同或更好的准确性。
-
投资使数据为人工智能做好准备:通过投资数据清理和管理来控制数据准备和处理成本,以生成更小、更高质量的训练和检索增强生成数据集。
-
实施主动成本管理控制和护栏:将实时异常检测和警报与需求限制选项相结合,以防止意外的成本飙升。
11、神经符号人工智能
影响力评级:较高
市场渗透率:目标受众的5%至20%
成熟度:新兴
定义:神经符号人工智能是一种复合人工智能,它将概率推理方法与符号系统相结合,从而创建更稳健、更值得信赖的人工智能模型。这种融合能够将概率模型与基于逻辑的技术(例如规则和知识图谱)相结合,使人工智能系统能够更好地表示、推理和概括概念。这种方法提供了一个推理基础设施,可以更有效地解决更广泛的业务问题。
为什么重要
神经符号人工智能解决了当前人工智能系统的局限性,例如输出不正确、缺乏对各种任务的泛化能力以及无法解释导致输出的步骤。神经符号方法可以带来更强大、更灵活、更易于解释的人工智能解决方案,并使人工智能系统能够推理更复杂的任务。生成式人工智能系统开始利用神经符号方法来克服其推理方面的缺陷。
商业影响
神经符号人工智能将对跨业务流程使用的人工智能系统的效率、适应性和可靠性产生影响。逻辑和多种推理机制的集成降低了对更大规模人工智能模型及其支持基础设施的需求。这些系统将减少对海量数据处理的依赖,从而提高人工智能的敏捷性和弹性。N元符号方法可以增强和自动化决策,同时降低意外后果的风险。
驱动因素
-
神经符号人工智能解决了大型推理模型(LRM)的局限性,当仅基于深度学习技术时,大型推理模型仍然受到缺乏符号抽象的困扰。
-
在受监管的行业用例和使用私人数据的系统中,对人工智能输出的解释和可解释性的需求尤为重要。
-
在处理现实世界实体的系统中,理解单词背后的含义而不仅仅是它们的排列(语义优于句法),对于为特定领域的单词和术语赋予意义而言,具有越来越重要的意义。
-
用于组合不同类型 AI 模型的工具集正在不断增加,并且对开发者和最终用户来说也越来越容易使用。主流方法是将不同模型的结果链接在一起(复合 AI),而不是使用单一模型。
-
提供敏捷人工智能系统所必需的多种推理机制的整合最终将产生自适应人工智能系统,特别是通过类似黑板的机制。
-
代理人工智能的进步也参与了神经符号方法的进步,而使用各种复合人工智能技术的代理则协作解决问题。
障碍
-
大多数基础的神经符号人工智能方法和技术正在学术界或行业研究实验室中开发。尽管可用的工具越来越多,但在商业或企业环境中的实施仍然有限。
-
目前尚无关于实施神经符号人工智能的一致认可的技术,尽管出现了现实世界的用例,但研究人员和从业人员之间对于结合方法的有效性仍然存在分歧。
-
人工智能初创企业的商业和投资轨迹几乎将所有资本都分配给了深度学习方法,只有那些愿意押注未来的人才会投资神经符号人工智能开发。
-
目前,尽管曝光度不断增加,但与其他方法(例如生成式人工智能)相比,大众媒体和学术会议对神经符号人工智能运动的曝光度并不高。
用户建议
-
构建人工智能系统时,应采用复合人工智能方法,运用一系列技术来提升人工智能模型的稳健性和可靠性。神经符号人工智能方法将适用于复合人工智能架构。
-
花时间学习神经符号AI 方法,并确定可以从应用这些方法中受益的用例。
-
投资可以利用神经符号 AI 技术构建模块的数据架构,例如知识图谱和基于代理的技术。
-
当生成式人工智能模型的局限性阻碍其在组织中实施时,请考虑神经符号人工智能架构。
-
通过在构建学习型AI 代理的同时探索神经符号方法的功能,让开发人员了解神经符号模型的潜力。
12、通用人工智能
影响力评级:颠覆
市场渗透率:不到目标受众的1%
成熟度:萌芽阶段
定义:通用人工智能 (AGI) 是指机器在所有认知任务上能够匹敌甚至超越人类能力的(目前假设)能力。此外,AGI 将能够在各种物理和虚拟环境中自主学习和适应,以追求预定或新颖的目标。
为什么重要
随着人工智能日益复杂化,包括生成式人工智能 (GenAI) 和代理式人工智能 (Agentic AI) 的最新进展,越来越多的人工智能专家缩短了未来实现通用人工智能 (AGI) 的预测时间,或认为 AGI 不再纯粹是假设。为了实现循证治理和切合实际的预期,对 AGI 有一个清晰、一致的定义至关重要。实现 AGI 将是一个变革性的转折点,对生产力、就业、地缘政治力量、法律、伦理和文化规范以及整个社会都将产生深远影响。
商业影响
短期内,对通用人工智能 (AGI) 的期待既会加剧过度乐观的预期,也会引发对自身生存的担忧,导致投资扭曲、信任受损,并加速新人工智能法规的出台。从长远来看,谁来构建和控制 AGI(或其他形式的日益强大的人工智能)的问题日益凸显。许多专家认为,公共管理至关重要,这一前景可能会颠覆私人优势,并重塑整个市场。
驱动因素
-
多模态大型语言模型 (LLM)、所谓的推理模型以及人工智能代理的最新进展和日益增长的兴趣,推动了通用人工智能 (AGI) 的广泛热潮。深度学习的大规模扩展以及海量数据和计算能力的可用性,在很大程度上推动了这些进步。
-
正如这里所定义的,人工智能向 AGI 的进一步发展越来越多地受到其他部分新方法的补充,例如知识或因果图、世界模型、自适应人工智能、具形人工智能、复合和神经符号人工智能,以及其他可能尚未知晓的创新。
-
许多AI厂商正在公开讨论并积极研究AGI领域,给人一种AGI触手可及的印象。然而,他们对AGI的定义差异很大,而且往往存在多种解读。此外,其他领先的AI厂商和专家认为AGI只是炒作,并呼吁关注AI日益增长的能力所带来的真正影响。
-
人类与生俱来的渴望设定远大目标,也是通用人工智能 (AGI) 的主要驱动力。历史上,人类曾一度希望模仿鸟类飞行。如今,飞机旅行已成为现实。人类思维的好奇心,从自然和自身汲取灵感,永不消逝。
-
人们倾向于将非人类实体拟人化,这种倾向也适用于人工智能驱动的机器。大语言模型的类人反应和近期人工智能模型的类推理能力助长了这种趋势。尽管许多哲学家、神经心理学家和其他科学家认为这种归因极不可靠或过于夸张,但它营造出一种通用人工智能(AGI)触手可及或至少正在接近的感觉。反过来,这引发了媒体的广泛关注,一些呼吁制定监管措施以管理AGI风险的呼声,以及出于经济、社会和地缘政治原因对人工智能投资的巨大兴趣。
障碍
-
对于“人类智能”的含义,科学界几乎没有达成共识。面对人类大脑和思维的巨大复杂性以及对它们的有限理解,任何关于 AGI 的说法都很难得到证实。
-
当前人工智能的不可靠性、缺乏透明度以及基于模式的抽象和推理能力有限,这些都难以通过深度学习的内在概率方法克服。更多数据或更强大的计算能力来构建更庞大的模型不太可能解决这些问题,更不用说实现通用人工智能了。要实现(并控制)通用人工智能需要进一步的技术创新。因此,本文定义的通用人工智能不太可能在短期内出现。
-
如果通用人工智能 (AGI) 真正实现,自主行为体很可能将应运而生,并最终被赋予完全的自学能力、自主权、身份认同,甚至道德规范。这将引发一系列关于人工智能合法权利的思考,并引发深刻的伦理甚至宗教讨论。AGI也有可能对人类产生负面影响,从失业到人工智能引发的新一轮军备竞赛等等。这可能会引发严重的反弹,禁止或控制 AGI 的法规很可能在不久的将来出台。
用户建议
-
与利益相关者合作,应对过度乐观或不合理的悲观情绪,并围绕通用人工智能 (AGI) 创造或维持切合实际的预期。将人工智能战略落地于具体的业务问题,而非基于推测性的通用人工智能预测。随着人工智能能力的不断发展,定期调整人工智能投资组合,同时充分利用人类和人工智能的互补优势。
-
密切关注可能预示通用人工智能(AGI )崛起的科学和创新突破;然而,也要注意关于通用人工智能的定义和观点范围广泛,有的严格,有的宽松。同时,要持续应用现有的人工智能进行学习,从中获益,并发展负责任的使用实践。
-
评估人工智能系统是否真正满足其特定的用例需求,而不是依赖通用的智能衡量标准。
-
为新兴的人工智能法规做好准备,并推进内部人工智能治理,以管理现有和新兴的人工智能风险。尽管此处定义的通用人工智能目前尚未实现,但当前的人工智能在伦理、可靠性和其他领域已经构成重大风险。
13、复合人工智能
影响力评级:颠覆
市场渗透率:目标受众的20%至50%
成熟度:早期主流
定义:复合人工智能(Composite AI),又称混合人工智能(Hybrid AI),是指将不同的人工智能技术组合应用(或融合),以提高学习效率并拓展知识表征的层次。它拓宽了人工智能的抽象机制,最终提供了一个有效解决更广泛业务问题的平台。
为什么重要
复合人工智能认识到,没有任何一种单一的人工智能技术是万能的。它将“联结主义”人工智能方法(例如机器学习 (ML) 和深度学习)与“符号主义”和其他人工智能方法(例如基于规则和逻辑的推理、图形或优化技术)相结合。其目标是使人工智能解决方案能够泛化和学习,并体现更多的抽象机制。复合人工智能是生成式人工智能 (GenAI)、决策智能(DI) 平台和代理式人工智能市场的核心。
商业影响
复合人工智能将人工智能的力量带给更广泛的组织群体,这些组织无法获取大量历史数据或标记数据,但拥有丰富的人类专业知识。它有助于扩展人工智能应用的范围和质量,从而应对更多类型的推理挑战。其他优势包括更佳的可解释性、嵌入式弹性以及增强智能的支持。新一波的GenAI应用在很大程度上依赖于复合人工智能。
驱动因素
-
决策对人工智能的依赖日益增长,推动着企业迈向复合人工智能。通过结合基于规则的模型和优化模型,可以确定最合适的行动,这种组合通常被称为规范分析。
-
数据集规模小,或者说数据可用性有限,促使企业将多种AI技术结合起来。企业已开始利用其他AI技术(例如知识图谱和生成对抗网络 (GAN))来补充稀缺的原始历史数据,以生成合成数据。
-
结合人工智能技术比仅仅依赖启发式方法或粗略的“数据驱动”方法更有效。基于规则和逻辑的技术可以与深度学习模型相结合。来自人类专家的规则,或物理/工程模型分析的应用,可能会指出某些传感器读数表明资产运营效率低下。
-
计算机视觉和自然语言处理 (NLP) 解决方案用于识别和分类图像中的人物或物体。此输出可用于丰富或生成图形,以表示图像实体及其关系。
-
DI 平台和基于 AI 代理的系统的出现将促进多种 AI 技术的有效结合,使复合 AI(在某些情况下包括神经符号技术)成为事实上的 AI 开发方法。
-
多智能体系统的发展进一步赋能了复合人工智能。复合人工智能解决方案可以由多个智能体组成,每个智能体代表生态系统中的一个参与者。将这些智能体组合成一个“集群”,可以实现共同的态势感知、更全局的规划优化、响应式调度和流程弹性。
-
GenAI 正在通过工件、流程和协作生成来加速复合 AI 模型的研究和采用,这些都是 DI 平台的基础。
障碍
-
缺乏利用多种人工智能方法的意识和技能:这可能会阻止组织考虑特别适合解决特定问题类型的技术。
-
ModelOps 部署:ModelOps 领域(即多个 AI 模型的运营化,例如优化模型、机器学习模型、规则模型和图模型)与其说是科学,不如说是一门艺术。需要一种强大的 ModelOps 方法才能有效地管理复合 AI 环境,并将其与其他学科(例如 DevOps 和 DataOps)协调一致。
-
信任与风险壁垒:人工智能工程学科正在初具规模,但只有成熟的组织才能将其优势应用于人工智能技术的运营。在整合人工智能技术的过程中,必须解决安全性、伦理模型行为、可观察性、模型自主性和变更管理实践等问题。
用户建议
-
识别出哪些项目不适合使用粗糙的“数据驱动”、纯机器学习方法。例如,当缺乏足够的正确数据,或者模式无法通过现有的机器学习模型来表示时。
-
通过将决策智能与业务规则和知识图谱结合 ML 和/或因果模型应用,捕获领域知识和人类专业知识,为数据驱动的洞察提供背景。
-
将 ML、图像识别或 NLP 的功能与图形分析相结合,以添加更高级、符号和关系智能。
-
扩展机器学习专家的技能,或招募或提升其他人工智能专家的技能,以涵盖图形分析、优化或其他 DI相关技术,从而实现复合人工智能。对于规则和启发式方法,请考虑知识工程技能以及诸如快速工程之类的新兴技能。
-
通过鼓励对Agentic 和 GenAI 进行实验来加速 DI 解决方案的开发,这反过来会加速部署复合 AI 解决方案的必要性。
期望膨胀期
14、AI 信任、风险和安全管理
影响力评级:较高
市场渗透率:目标受众的5%至20%
成熟度:早期主流
定义:AI 信任、风险和安全管理 (TRiSM) 包含四层技术能力,支持所有 AI 用例的企业策略,并有助于确保 AI 治理、可信度、公平性、安全性、可靠性、保密性、隐私性和数据保护。其中,最上面的两层——AI 治理以及 AI 运行时检查和执行——是 AI 领域的新概念,并且正在逐步整合成一个独立的细分市场。最下面的两层则代表专注于 AI 的传统技术。
为什么重要
人工智能带来了新的信任、风险和安全管理挑战,而这些挑战是传统控制措施无法解决的。企业最担心的是数据泄露、第三方风险以及不准确或不必要的输出,需要确保企业人工智能的行为和行动符合企业意图。随着人工智能市场的快速成熟和变化,企业必须进一步保持对任何单一人工智能模型或托管服务提供商的独立性,以确保可扩展性、灵活性、成本控制和信任。
商业影响
未能持续管理人工智能风险的组织,极有可能遭遇不良后果,例如项目失败、人工智能性能失常以及数据机密性受损。不准确、不道德或非预期的人工智能结果、流程错误、不受控制的偏见以及来自良性或恶意行为者的干扰,都可能导致安全故障、财务和声誉损失,或责任和社会损害。人工智能性能失常还可能导致组织做出次优或错误的业务决策。
驱动因素
-
由于人们缺乏对人工智能作为支持关键业务流程的安全且合乎道德的选择的信任,人工智能和生成式人工智能 (GenAI)的使用受到限制。
-
企业面临多重人工智能风险,最担心的是数据泄露、第三方风险以及不准确或不必要的输出。
-
针对企业人工智能的恶意黑客攻击仍然很少见,而不受约束的有害聊天机器人事件却有据可查,内部过度共享数据泄露现象普遍存在。
-
用户对GenAI TRiSM 解决方案的需求正在稳步增长,各种规模的供应商都在争夺这一新的企业业务。
-
一些组织主要关注安全和风险缓解,而其他组织也注重支持道德或安全实践和法规遵从性。
-
人工智能信任、风险和安全问题暴露了组织孤岛问题,迫使团队重新调整以解决跨部门界限的问题并实施解决这些问题的技术措施。
-
引入基于大型语言模型 (LLM) 且具有不同程度代理能力的人工智能代理,使得人工智能可以在有或没有人工干预的情况下采取行动。
-
人工智能代理的快速普及将产生更多的治理需求,而人类在环监督无法单独满足这一需求。
-
人工智能风险管理法规正在推动企业制定人工智能风险管理措施。这些法规定义了组织必须在现有合规要求(例如隐私保护相关要求)的基础上满足的新的合规要求。
障碍
-
采用AI TRiSM 技术通常是事后才想到的。企业通常直到 AI 应用投入生产时才会考虑它,因为那时改造会变得很困难。
-
许多企业资源有限,没有实施 TRiSM 技术的技能或能力。
-
企业通常依赖现有供应商为 TRiSM 功能提供 AI 功能,尽管他们通常缺乏这种功能,并且必须依赖供应商许可协议来确保其机密数据在主机环境中保持私密。
-
嵌入人工智能的现成软件通常是封闭的,并且不支持可以执行企业策略的第三方人工智能 TRiSM 产品的 API。
-
大多数人工智能威胁和风险尚未被充分了解,也未得到有效解决。
-
AI TRiSM 需要一个跨职能团队,包括法律、合规、安全、IT 和数据分析人员,以建立共同目标并使用共同框架。
-
虽然 AI TRiSM 可以集成生命周期控制,但这带来了重大的实施挑战,尤其是对于通常缺乏 API 支持的嵌入式 AI。
用户建议
-
设立一个组织单元来管理与组织总体治理计划相整合的 AI TRiSM ,并吸纳对 AI 项目有既得利益的成员。
-
在足够精细的层面上定义可接受的使用政策以便执行。
-
发现并清点组织中使用的所有 AI,利用支持此功能的 AI TRiSM 供应商的功能。
-
重新审视并实施所有可能被人工智能利用的企业信息(包括结构化和非结构化信息)的数据分类、保护和访问管理。促进参与信息治理的不同团队之间的协作。
-
与法律和合规部门合作,通过合同方式定义第三方嵌入式人工智能应用程序中不可接受的人工智能使用或行为的责任和义务。
-
获得供应商证明以满足法律要求。
-
评估并实施分层 AI TRiSM 技术,以持续支持和执行所有在用 AI 实体的策略。这包括企业自有的 AI TRiSM 服务,以及前沿模型提供商提供的控制措施,但不应仅仅依赖后者。
15、多模态人工智能
影响力评级:颠覆
市场渗透率:目标受众的1%至5%
成熟度:成长期
定义:多模态 AI 模型可以同时使用多种类型的数据(也称为模态)进行训练,例如图像、视频、音频和文本。这使得它们能够创建共享的数据表示,从而提升不同任务的性能。在运行时,它们可以处理多种模态,无论是输入、输出还是两者兼而有之。
为什么重要
多模态人工智能为现有软件增添了重要的新技术能力,例如更高的准确性。它催生了新的专业应用,实现了图像帧的视觉问答、制造优化以及银行和金融领域的欺诈检测等新用例,并创造了新的价值成果。物理世界及其生成的数据本质上是多模态的。通过整合和分析不同的数据源,与单模态模型相比,可以对复杂的环境和任务进行更全面的评估,帮助用户理解世界,并为人工智能应用开辟新的途径。
商业影响
Gartner 预测:
-
在未来五年内,多模态人工智能将成为各行各业每个应用程序和软件产品能力提升中越来越不可或缺的一部分。
-
到 2027 年,40% 的生成式人工智能 (GenAI) 解决方案将是多模态的(文本、图像、音频和视频),高于 2023 年的 1%。
驱动因素
多模态人工智能的采用将创造跨行业转型机遇。关键驱动因素包括:
-
范式转变:从传统的线性流程,到人机无缝协作的动态人工智能驱动系统。代理人工智能的进一步发展将涉及与多模态人工智能技术的深度集成,以处理现实世界数据和任务的复杂性和丰富性。
-
近期人工智能领域的突破,尤其是在大型语言模型 (LLM) 和视觉语言模型 (VLM)领域的突破,与多模态人工智能高度相关。这些进步催化了自然语言处理和计算机视觉的复兴。
-
智能应用本质上是情境丰富的,旨在适应不断变化的场景。这使得多模态人工智能成为智能应用发展和演进的关键组成部分。
-
世界模型是多模态人工智能的重要驱动力,因为它们本质上需要处理和理解来自各种模态的信息的能力,以准确地表示和模拟现实世界的复杂性。
-
专有和开源的 AI/GenAI 多模式模型的广泛可用性降低了通过 AI 市场进入和采用的门槛。
-
在医疗保健等领域,对多模式领域专门模型有需求,其中多模式扩展或丰富了用例。
障碍
多模态人工智能在从各种模态进行理解和处理方面非常强大,但在应用方面面临几个主要障碍:
-
由于格式和时间戳的差异,集成文本、图像、音频和视频等多种数据类型极具挑战性,可能导致解读不准确。多模态人工智能模型非常复杂,包含各种特定模态的子网络,这可能会影响透明度和可解释性。
-
架构复杂性、数据量的增加以及数据融合的需求导致推理延迟,从而阻碍了即时决策至关重要的可靠操作。
-
数据集偏差源于利用文本、图像、视频和语音等训练数据集,这些数据集可能会无意中反映社会或文化偏见。这可能导致做出不公平或不准确的预测/决策。
-
跨模态处理敏感数据会增加数据泄露风险和隐私侵犯。这会使遵守《通用数据保护条例》(GDPR) 或《健康保险流通与责任法案》(HIPAA) 等法规变得更加复杂,因为多模态 AI 会暴露新的攻击面,并加剧数据类型多样化带来的隐私风险。
用户建议
希望实施多模式人工智能的组织应该:
-
确定多模式 AI 可以超越单模式 AI 基础模型提升商业价值的案例。
-
使用现成的多模式模型进行试点,不仅展示技术可行性,还展示商业价值。
-
通过评估模态之间关系的质量(例如将图像生成的标题与真实标签/描述进行比较)来建立强大的模型评估。
-
优先构建或访问支持多种数据类型(文本、图像、音频和视频)的收集、存储和处理的强大数据基础设施。
-
建立或获取专业知识来处理处理和集成多模式数据与传统和现有工作流程的技术复杂性。
-
创建或扩展 AI 治理策略和政策,以应对多模式数据集的挑战并确保合规性。
-
将多模态性纳入技术路线图,并在系统采购或产品开发计划中为多模态 AI 创建迁移路径。
16、主权人工智能
影响力评级:较高
市场渗透率:目标受众的20%至50%
成熟度:早期主流
定义:主权人工智能是指国家为推进其独特的主权目标而投资并推进自身人工智能的开发和应用的努力。鉴于主权人工智能创新与风险比率的巨大差异,主权人工智能将以意想不到的方式影响国际关系、全球贸易、地方公私伙伴关系和经济市场。
为什么重要
主权人工智能反映了国家为推动自身应用人工智能技术而加速投资的趋势,包括增强其内部政府职能与运营目标的协调性。主权人工智能可以增强单个国家的军事防御能力,但其他国家使用人工智能可能会破坏这些国家的安全努力。主权人工智能的目标是最大化人工智能的价值,同时降低人工智能的风险,包括那些为实现共同目标而合作的主权国家,例如减少人工智能生成的深度伪造对政治环境的影响。
商业影响
自主人工智能几乎影响着政府及其与之互动的企业的方方面面。它通过自动化政府联络中心等内部任务来提高运营效率。由于自主人工智能实现了政府业务的现代化,它可以改善员工体验并加速公民参与。当主权国家控制自己的人工智能系统时,它们可以减少对其他主权国家和私人科技市场的依赖。
驱动因素
-
越来越多的国家积极规划和建设自己的人工智能基础设施和能力,以提高竞争力,保障未来,包括发展可持续的自主人工智能。
-
不负责任地使用人工智能可能会对主权目标和公民福利造成已知和未知的损害风险,这促使主权国家希望对人工智能系统的发展拥有更大的控制权,尤其是对生成性人工智能(GenAI) 用例的控制权。
-
主权实体自我监管的需求日益增长,包括其数据如何用于训练大型语言模型(LLM)。例如,相关国家越来越多地使用人工智能工具来制定重要的政府决策,但客户报告称,这些决策通常外包给私营公司,缺乏公众的意见或监督。这种缺乏透明度和问责制的情况促使主权国家自行开发人工智能工具,以解决这些关键决策过程中存在的不必要的偏见和利益冲突。
-
相关国家希望增强对其他国家和技术市场的独立性,特别是为了弥补文化和语言投入不足的问题。
-
主权人工智能在数字主权中发挥着重要作用,因为它关注的是人工智能数据和系统的主权控制,包括对计算能力、数据存储、人力资源访问以及人工智能应用开发专有知识的控制。数字主权还能对主权人工智能发展产生重大影响,例如,它能够提供本地存储的数据来训练人工智能模型。
-
主权人工智能不同于主权数据战略。其核心关注点在于成为人工智能技术的开发者和使用者,而非监管者。主权数据战略反映了各国政府为规范公民、私营企业和经济的数据以及人工智能的使用而做出的努力。
-
打击深度伪造泛滥对政治稳定造成的威胁可以推动相关国家采用主权人工智能。
-
今天提高政府工作人员的技能,以便明天为政府工作人员提供更适应人工智能的能力,这将有助于国家人工智能的发展。
-
推进地方和国家国防战略的需求日益增加。
-
在新兴技术领域取得进步并保持领先地位将加速人工智能的扩展。
障碍
-
准备适合人工智能的 IT 基础设施。
-
培养具有人工智能技能的政府劳动力。
-
政府文化的现代化,以适应先进的分析和自动化。
-
已经不堪重负的 IT 基础设施和分散的业务网络的能力有限,无法为自主的AI 系统提供服务。
-
缺乏用于训练 LLM 的正确的 AI 就绪数据,导致 AI 输出的实用性水平参差不齐。
-
缺乏技术熟练的人员参与人工智能开发和使用生命周期,导致人工智能使用和 GenAI 工件产生意想不到的负面结果。
-
人员、人才、数据管理技术以及支持工具和技术缺乏对人工智能的准备,阻碍了民族国家加速在政府职能中采用人工智能。
-
政治和文化价值观的差异将导致对人工智能价值与人工智能危害的分析不一致,从而对国际贸易和全球市场产生不可预测的影响。
-
可能阻碍主权人工智能计划的法律、监管或财政政策。
-
世界各国对人工智能的发展导致了对人工智能解决方案的要求出现碎片化甚至可能出现矛盾,其中许多要求公共或私营部门都无法满足。
用户建议
寻求以自主管理和控制的方式发展符合其战略目标的人工智能系统的主权国家应该:
-
从小处着手,优先考虑人工智能的使用,以最大限度地实现利益相关者和政府的业务目标。
-
构建从内部用例到面向公民的人工智能战略路线图。
-
确保人工智能战略识别关键价值机会和风险。
-
在规划过程的早期制定成功指标,并在策略中纳入各种指标来跟踪成功并纠正不良影响。
-
培育公私合作关系,促进和加速数据和分析、人工智能技能提升、技术创新和采用。
-
与友好主权国家合作,加速学习曲线,分享失败分析和意外成功的积极叙述。
-
利用 Gartner 的《成功人工智能战略支柱》引导国家走向人工智能发展的自主治理,创造切实价值,取得具有竞争力的国家领先地位。
17、人工智能代理
影响力评级:较高
市场渗透率:目标受众的5%至20%
成熟度:成长期
定义:人工智能代理是自主或半自主的软件实体,它们使用人工智能技术在数字或物理环境中感知、做出决策、采取行动并实现目标。
为什么重要
人工智能代理能够在目标环境中做出决策并采取行动,以实现组织目标。利用人工智能实践和技术(例如大型语言模型 ( LLM)),组织正在创建和部署人工智能代理来完成复杂的任务。
商业影响
人工智能代理具有以下潜力:
-
通过自动化消费者、工业、数据分析、内容创建和物流等任务的能力,彻底改变广泛的行业和环境。
-
做出明智的决定并与周围环境进行智能互动。
驱动因素
-
生成式人工智能的突破:推理模型和大型动作模型 (LAM) 提高了规划一系列复杂动作的能力。
-
多模态理解:能够运用视觉、音频和语言等多种模态,打造更通用、更灵活的人工智能代理。这使其能够自动适应工作流程、用户界面或 API 的变化。借助此功能,无需进行明确编程即可创建高级工作流程,从而显著减少自动化开发时间和工作量。
-
决策复杂性提升:人工智能在现实世界中越来越多地应用于包含复杂系统的工程问题,在这些系统中,由相互作用的部件组成的大型网络会展现出难以预测的突发行为。人工智能代理能够在复杂环境中学习、规划和执行。
-
复合人工智能,包括神经符号模型:改进规划和问题解决能力的模型的进步,正在催生更复杂的人工智能代理。人工智能代理可以利用各种各样的人工智能实践进行预测、决策和规划。
障碍
-
漏洞:由于AI代理系统的复杂性,各个组件都面临着访问安全、数据安全和治理等各种潜在的漏洞。
-
缺乏信任:用户不确定是否能够信任该技术能够准确预测并独立执行任务。在没有人类参与的情况下,代理可能会快速连续地执行多个后续操作,并在人类察觉之前造成重大影响。
-
可解释性和监督:行动政策可能不透明且可解释性较差,需要人类的解释、监督和控制机制。
-
变化的速度:从模型到工具,所部署的技术以及可用的框架选项都在快速变化,这使得组织难以定义其路线图。
用户建议
-
通过投资了解人工智能代理在各种环境中的能力和潜在应用,将其纳入战略规划,考虑到其日益增强的自主性和广泛的可用性。
-
研究利用多智能体系统(MAS)的可能性,该系统是人工智能智能体的集合,可以协作和独立运行,增强对不同任务和场景的适应性和灵活性。
-
促进多种人工智能实践的开发和融合应用,实现学习、谈判和决策能力。
18、人工智能就绪数据
影响力评级:颠覆
市场渗透率:目标受众的1%至5%
成熟度:成长期
定义:AI 就绪数据是通过证明数据适用于特定 AI 用例的能力来判定的。就绪证明来自于对其代表性的评估,该评估通过其与用例的一致性、对持续数据资格认证的支持以及确保数据和 AI 治理来实现。因此,AI 就绪数据只能根据 AI 用例和所使用的 AI 技术来确定,这迫使我们采用新的数据管理方法。
为什么重要
随着预训练现成模型的兴起以及生成式人工智能 (GenAI) 的炒作,数据管理领导者正处于制定人工智能数据战略的前沿。首席数据和分析官以及数据管理领导者必须快速响应日益增长的人工智能就绪数据需求,提供人工智能就绪数据来支持人工智能用例。未投资人工智能就绪数据实践的组织越来越无法实现业务目标,并面临数据和人工智能治理问题,这些问题可能导致错误的结果和财务风险。
商业影响
大规模投资人工智能的组织需要改进其数据管理实践和能力,不仅要保留经典的数据管理理念,还要将其扩展到人工智能领域。迭代地提供人工智能就绪数据至关重要,以满足现有和未来的业务需求,确保信任,避免风险和合规性问题,保护知识产权,并减少偏见和幻觉。
驱动因素
-
数据正成为这些预训练模型的主要差异化和价值来源。模型,尤其是通用人工智能模型,越来越多地来自供应商,而非内部交付。
-
根据 2024 年 Gartner 数据管理演变调查,57% 的组织估计其数据尚未做好 AI 准备,而在其余 43% 的组织中,准备情况评估显示出差距。
-
根据 2024 年 Gartner 企业 AI 任务调查,参与者报告称数据可用性或质量是成功实施 AI 的最大障碍。
-
人工智能的快速发展为组织和管理人工智能数据带来了新的挑战。我们期待着一个更适合满足人工智能数据需求的增强数据管理技术周期的到来。基于数据结构架构的数据生态系统预示着这一新周期的开始。
-
增强数据管理功能和工具极大地受益于人工智能。人工智能技术提供了新的以数据为中心的方法,例如自动特征工程或辅助数据工程,以及使用检索增强生成进行代码生成。
-
GenAI 正在消除结构化数据和非结构化数据之间的区别,从而要求数据管理适应新的用途。
障碍
-
人工智能社区大多仍未意识到能够极大地促进人工智能开发和部署的数据管理能力、实践和工具。缺乏信息可能会导致原型在生产中扩展时面临挑战。传统的数据管理也忽略了人工智能特有的考虑因素,例如数据偏差、标签和漂移;这种情况正在改变,但进展缓慢。
-
负责任的人工智能需要对数据和人工智能模型采用新的治理方法。这些特定于人工智能的数据实践尚未成为大多数企业传统数据治理的一部分。
-
假设人工智能模型一旦部署就能解决所有潜在的数据管理问题,这是一种谬论。诸如持续的漂移监测之类的部署考虑需要持续的数据管理活动和实践。
-
人工智能开发人员专注于用例上下文,而不是独立的验证和重用,这影响了有效的生产使用和跨用例的可重用性。
用户建议
-
将 AI 就绪数据正式化,作为一项专门的实践,纳入整体数据管理战略。实施主动元数据管理、数据质量、可观测性、集成和架构,作为该战略的基础组成部分。
-
培养支持人工智能的数据工程师,培养数据管理的人工智能专家。
-
由于人工智能模型依赖于代表性数据,因此需要以数据为中心来支持人工智能模型的开发。实现数据、模型和人员的多样化,以确保人工智能的价值,并避免非自愿的偏见。
-
利用数据管理专业知识、AI工程、DataOps 和 MLOps 方法支持 AI 生命周期。部署 AI 模型时,需考虑数据管理要求。
-
开发数据监控和数据治理指标,以确保您的 AI 模型持续产生正确的输出。
-
尽早为每个用例定义并测量 AI 就绪数据的最低数据标准,并在 AI 规模化应用过程中持续验证数据适用性。这些标准包括:检查数据沿袭、质量和治理评估、版本控制以及自动化测试。
-
研究具有增强数据管理功能的数据管理工具,这些工具可以与已经创建颠覆性数据中心 AI 功能的 AI 工具(如多模式数据结构)很好地集成。
19、人工智能工程
影响力评级:颠覆
市场渗透率:目标受众的5%至20%
成熟度:早期主流
定义:AI 工程是企业大规模交付 AI 和生成式 AI (GenAI) 解决方案的基础学科。该学科统一了 DataOps、ModelOps 和 DevOps 流水线,为基于 AI 的系统创建了一致的开发、部署(混合云、多云、边缘)和运营框架。
为什么重要
随着 GenAI 技术的持续应用,对 AI 解决方案的需求急剧增长。很少有组织能够构建将试点项目投入生产所需的数据、AI 模型管理和 DevOps 基础,更不用说大规模运营 AI 解决方案组合了。此外,还需要一种合适的运营模式,使拥有不同技能的团队能够跨部门协作构建 AI 系统。因此,为了满足对扩展 AI 解决方案的需求,企业必须建立一致的流程,以支持 AI 模型(统计、机器学习、生成式、深度学习、图形、语言和基于规则)的开发、部署、重用、治理和维护。
商业影响
人工智能工程使组织能够持续安全地建立和发展高价值的人工智能解决方案组合。几乎所有人工智能解决方案都是基于多种模型和人工智能技术构建的,从而形成复合人工智能系统。在构建和部署大规模复合人工智能系统的过程中,需要应对重大的工程、流程和文化挑战。借助明确的人工智能工程方法,DataOps、ModelOps 和 DevOps,可以将模型以结构化、可重复的工厂模式部署到生产环境中。人工智能工程还可以建立流程,以确保人工智能工程团队在基于人工智能的解决方案的整个开发过程中与业务利益相关者紧密合作。
驱动因素
-
消除传统的孤立的数据管理和人工智能工程方法,可以使数据工程工作量加倍,并减少数据提取、处理、模型工程和部署之间的阻抗不匹配,一旦人工智能模型投入生产,这些阻抗不匹配不可避免地会进一步加剧。
-
DataOps、ModelOps(包括LLMOps)和DevOps为在AI开发生命周期中移动工件提供了最佳实践。数据和模型管道的标准化加速了AI解决方案的交付,无论采用何种方法,检索增强生成(RAG)或微调技术,以及使用各种AI技术构建的模型的实现。
-
AI工程使整个企业技术架构中可发现、可组合、可重用的数据和AI构件(例如数据目录、知识图谱、代码库、参考架构、特征存储和模型存储)成为可能。这些对于在整个企业范围内扩展AI至关重要。
-
人工智能工程实践、流程和工具必须适应 GenAI 的挑战。针对 GenAI 的具体调整包括对快速工程、向量数据库/知识图谱、多智能体系统的架构和部署,以及交互式部署模型的支持。
-
AI 工程工具可以细分为以模型为中心和以数据为中心的工具。诸如 DataOps、LLMOps 之类的术语,以及诸如 ModelOps 或 MLOps 之类的更宽泛的术语,经常被使用。然而,我们认为它们都是 AI 工程的子集,是为实现 AI 开发生命周期特定部分的操作化而实施的 DevOps 最佳实践。
-
最后,人工智能工程使得跨混合、多云、边缘人工智能或物联网 (IoT)协调解决方案成为可能。
障碍
-
随着运维家族的快速壮大,涌现出大量更新、但又略显模糊的运维术语,令 AI 领导者应接不暇。由于这种模糊性,AI 领导者往往无法确定优先级并遵循正确的运维原则,导致AI 运营状态不佳。
-
人工智能工程需要同时开发跨领域的管道以及跨平台基础设施的成熟。
-
它需要将功能齐全的解决方案与特定工具集成,实现运营化功能,以最小的功能重叠弥补企业架构方面的差距。这些差距包括提取、转换和加载存储、特征存储、模型存储、模型监控、管道可观察性和治理方面的差距。
-
AI工程需要高度成熟度和可能的架构重构,或者需要具备跨部署环境集成数据和AI模型流水线的能力。分析和AI工作负载的潜在复杂性、管理成本以及成本可能会阻碍处于AI计划初始阶段的组织。
-
企业经常寻求“独角兽”专家来将AI平台和解决方案产品化。局部解决方案不仅会增加成本,还可能使本已错综复杂的集成和模型管理任务变得更加复杂。
用户建议
-
通过建立简化数据、模型和实施流程的 AI 工程实践,最大限度地提高正在进行的 AI 计划的商业价值。
-
通过确定运营端到端 AI 开发平台和构建 AI 特定工具链所需的功能来简化数据和分析管道。
-
谨慎使用单点解决方案,仅用于填补功能齐全的 DataOps、MLOps、ModelOps 和工具中的功能/能力缺口。Airflow和 Kafka 等开源技术在构建综合解决方案方面发挥着重要作用。
-
利用云服务提供商环境作为构建 AI 工程的基础。同时,在迁移到云端的过程中,合理化您的数据、分析和 AI 产品组合。
-
采用GenAI 的平台方法,投资集中式 AI 工程工具,实现广泛的 AI 模型和云服务提供商的自动化、治理和用例支持。
-
通过对解决方案的各个方面建立共同的理解、避免孤岛并与业务利益相关者互动,采用软件交付最佳实践。
-
提升数据工程和平台工程团队的技能,以采用推动人工智能工件持续集成/持续开发的工具和流程。
20、负责任的人工智能
影响力评级:颠覆
市场渗透率:目标受众的5%至20%
成熟度:早期主流
定义:负责任的人工智能 (RAI) 是一个涵盖性术语,涵盖在采用人工智能时如何做出适当的商业和道德选择。这些选择涵盖商业和社会价值、风险、信任、透明度、公平性、偏见缓解、可解释性、可持续性、问责制、安全性、隐私性和法规遵从性。RAI 涵盖组织的责任和实践,以确保积极、负责且合乎道德的人工智能开发和运营。
为什么重要
人工智能的广泛应用导致负责任人工智能 (RAI) 主要被划分为几个重点领域:人工智能治理以及信任、风险和安全管理 (TRiSM)。此外,司法管辖区和行业法规将 RAI 框架下定义较少的实践具体化。虽然“负责任的人工智能”这一术语仍在使用,但企业将继续强调特定领域,并专注于其具体的人工智能目标,例如风险、隐私、合规性、道德规范、人工智能应用评估以及确保数据为人工智能就绪。
商业影响
组织中的每个角色都需要对人工智能抱有负责任的态度。RAI承担个人、组织和社会层面人工智能开发和使用的责任。如果人工智能治理和TRiSM由指定小组实施,RAI 的影响力将扩展到所有参与人工智能流程的利益相关者。具体的RAI 实践,例如保护隐私和消除人工智能偏见,可以通过确保人工智能技术有益、安全、合乎道德且值得信赖来保护组织。
驱动因素
RAI帮助人工智能参与者开发、实施、利用并解决他们面临的各种驱动因素。随着人工智能的广泛应用,RAI 驱动因素正变得越来越重要,供应商、买家、社会和立法者也对它们有了更深入的理解:
-
生成式人工智能 (Gen AI)的采用引发了新的担忧,例如幻觉、泄露敏感数据、版权问题和声誉风险,这为 RAI 带来了新的参与者(例如在安全、法律和采购领域)。
-
领先的供应商正在为他们的 GenAI 产品提供赔偿,让客户对他们的 RAI 方法更有信心:虽然这是一个很好的举措,但这些仍然不完整。
-
RAI 的组织驱动力在于,需要在监管、商业和道德界限内,在商业价值与相关风险之间取得平衡。这包括对员工进行再培训以适应人工智能技术以及保护知识产权等考量。
-
社会驱动力包括解决人工智能安全问题,以造福社会福祉,而非限制人类自由。现有和待决的法律法规,例如欧盟的《人工智能法案》,使得 RAI 成为必需。
-
客户/公民驱动力基于公平和道德,要求在隐私和便利之间取得平衡。客户/公民可能愿意分享他们的数据以换取某些利益。
-
人工智能影响着人们的方方面面,触及社会各个阶层。因此,RAI 的挑战是多方面的,难以一概而论。因此,各组织在 RAI 框架下处理具体问题。随着技术及其应用的快速发展,新的问题将不断涌现。
障碍
-
RAI 可能在纸面上看起来不错,但RAI的责任界定不明确导致其在现实中无效。
-
组织缺乏对人工智能意外后果的认识。许多组织只有在体验到人工智能的负面影响后才转向 RAI 实践,而预防其实更为简单。
-
大多数人工智能法规仍处于起草阶段。人工智能产品采用隐私和知识产权法规,使得组织难以确保合规并避免所有可能的责任风险。
-
人工智能技术的快速发展,包括用于解释、推理、偏见和幻觉检测、隐私保护以及一些法规合规的工具,使组织陷入了一种虚假的责任感,而仅仅依靠技术是不够的。除了技术之外,严谨的人工智能风险、伦理和治理方法也必不可少。
-
制定 RAI 原则并将其付诸实施,但如果不定期衡量进展,则很难维持 RAI 实践。
用户建议
-
确定并优先考虑人工智能战略中 RAI 的重点领域。在所有 RAI 重点领域中宣传一致的方法。企业中 RAI 的典型领域包括公平性、偏见缓解、道德规范、风险管理、安全、隐私、可靠性、可持续性和法规遵从性。
-
为每个用例指定一名负责人,负责负责任地开发和使用人工智能。
-
定义人工智能生命周期框架。在该周期的各个阶段解决 RAI 问题。解决棘手的权衡问题。
-
为相关人员提供适用的 RAI 重点领域的培训。培训内容包括人工智能素养和批判性思维。
-
落实 RAI 原则。确保参与者的多样性,并使他们能够轻松表达对 AI 的担忧。
-
加入行业或社会的人工智能团体。学习最佳实践并贡献自己的经验,因为每个人都能从这种交流中受益。确保政策能够满足所有内部或外部利益相关者的需求。
21、模型运营
影响力评级:颠覆
市场渗透率:目标受众的5%至20%
成熟度:成长期
定义:模型运营(ModelOps)主要关注高级分析、人工智能和决策模型的端到端治理和生命周期管理,例如基于机器学习(ML)、生成人工智能(GenAI)和知识图谱的模型。
为什么重要
ModelOps帮助企业标准化、扩展和增强其分析、AI 和 GenAI 项目。它帮助组织将其模型从实验室环境迁移到生产环境。MLOps主要专注于机器学习模型的监控、运营化和治理,而 ModelOps 则协助所有高级分析、决策和 AI 模型(包括 GenAI 和检索增强生成 (RAG) 系统)进行同样的工作。
商业影响
ModelOps 作为一种实践:
-
提供管理和运营各种人工智能(包括生成人工智能)、分析和决策智能系统的能力
-
通过可观察性、版本控制、监控、数据和模型编排、护栏、实验和可解释性,实现此类系统所需的复杂子系统。
-
确保更广泛的业务、开发和部署社区之间的协作,以及将模型结果与业务 KPI 关联起来的能力
-
是人工智能工程的重要技术能力组成部分;ModelOps 的最佳实践使得以结构化、可重复的工厂模型将模型部署到生产中成为可能
驱动因素
-
现代人工智能系统正在构建一个由生成式人工智能模型、经典人工智能模型、代理和智能软件功能组成的共生组合。随着组织中高级分析、人工智能和决策模型数量的增加,组织将不得不在生产环境中管理不同类型的预打包或定制模型。为此,组织必须确保这些模型按预期运行,并在各种应用中保持准确性和可靠性。
-
组织希望不仅在模型方面,而且在数据、应用程序和基础设施方面,都能够更加灵活、更加迅速地响应其高级分析和人工智能管道中的变化。
-
ModelOps提供了一个框架,用于划分各个团队的职责,以区分如何在不同环境(例如开发、测试和生产)中构建、测试、部署和监控模型(包括 GenAI、基础模型、分析、机器学习、物理模型、模拟模型和符号模型)。这可以提高生产力和协作能力,并降低故障率。
-
ModelOps 提供了一些工具来解决因漂移和偏差导致的模型性能下降问题。在其他场景中,实现模型运行时的强制执行、可解释性和完整性至关重要。
-
组织不希望部署无限数量的开源产品来管理 ModelOps,但很少有全面的解决方案能够在模型运营的各个领域提供端到端功能。此外,并非所有功能都是立即需要的。通常,版本控制、监控和模型编排先于特征存储、管道和可观察性的全面实现。
-
GenAI 需要更加注重测试,并引入版本控制、管理和自动化提示、路由器以及检索增强生成系统的功能。微调还需要增强 ModelOps 功能,以管理复杂领域和功能训练数据集的转换。
障碍
-
使用不同类型模型的组织通常不会构建正确的运营、模型使用策略和管理能力,直到他们已经拥有一个混乱的无人管理的高级分析和人工智能系统环境。
-
目前,并非所有分析技术都能从成熟的运营方法中受益。由于机器学习技术备受关注,MLOps 受益于更先进的人工智能实践,但某些模型,例如代理建模和优化技术,需要在 ModelOps 实践和平台中得到更多关注。
-
由于数据无法被 AI 模型使用,同时还存在数据隐私、安全和监管问题,因此各组织难以将 GenAI 投入生产。
-
组织可能会采用一些并非立即需要的 ModelOps 平台功能。同时,如果组织各自为政,未能采用全面的 ModelOps 战略,则会在操作化方面造成工作冗余。
用户建议
-
购买集成到主要 AI 平台的 ModelOps 功能。通过一流的开源或专有 ModelOps 产品来丰富这些功能,解决诸如特征存储或可观察性等特殊问题,并增强解决方案。
-
利用复合 AI、数据、模型和应用程序中的 ModelOps 最佳实践来确保过渡、减少摩擦并增加价值创造。
-
招募/提升更多工程师,使他们能够掌握利用非结构化数据、搜索和检索、图形和优化的 AI 系统上的 ModelOps 。
-
鼓励数据科学与开发和部署团队之间的协作;授权团队做出决策,以实现分析和人工智能管道的自动化、扩展和稳定。
-
与软件工程团队合作,扩展 ModelOps。将运营责任转移给生产支持团队,可以提高整个复杂的 AI 应用生态系统中 ModelOps 的专业化和精细化程度。
泡沫破裂低谷期
22、基础模型
影响力评级:颠覆
市场渗透率:超过50%的目标受众
成熟度:成熟主流
定义:基础模型是大参数模型,以自监督的方式在广泛的数据集上进行训练。它们主要基于Transformer或扩散深度神经网络架构,并且正日益走向多模态化。它们之所以被称为基础模型,是因为它们对各种下游用例至关重要且适用。这种广泛的适用性得益于模型的预训练和多功能性。
为什么重要
基础模型凭借其大规模预训练和广泛的用例适用性,是人工智能向前迈出的重要一步。它们能够提供最先进的功能,并且比前代模型的效率更高。它们已成为自然语言处理的首选架构,并已应用于计算机视觉、音频和视频处理以及软件工程用例。
商业影响
基础模型拥有在广泛的企业用例中增强应用程序的潜力,正在对垂直行业和业务职能产生广泛影响。其影响力正在加速扩大,越来越多的初创企业在其基础上构建企业应用程序。基础模型将通过提高员工生产力、自动化和增强客户体验,以及快速、经济高效地创建新产品和服务,来推动企业内部的数字化转型。
驱动因素
-
更快的价值实现:基础模型可以通过预构建 API、快速工程、检索增强生成或进一步微调来有效地实现价值。虽然微调可以实现更多定制化,但其他三个选项更简单、更快速、更经济。
-
跨领域卓越性能:基础模型与先前神经网络解决方案之间的差异显而易见。大型预训练模型能够以前所未有的规模和准确度生成连贯的文本、代码、图像、语音和视频,并且在推理任务中的表现也日益出色。
-
快节奏的创新:过去一年涌现出大量基础模型,以及基于这些模型构建的小型预训练特定领域模型。其中大多数以云 API 或开源项目的形式提供,进一步减少了实验时间和成本,并推动企业更快地采用这些模型。
-
生产力提升:随着基础模型自动化任务能力的不断增强,其正在对企业业务职能的广泛领域产生影响。市场营销、客户服务和IT(尤其是软件工程)等业务职能是客户寻求初步收益的领域。
障碍
-
存在缺陷的结果:尽管取得了重大进展,基础模型仍然需要谨慎的训练和防护措施。由于其训练方法和黑箱特性,它们可能会产生不可接受的结果或产生幻觉。它们还可能将数据集中的任何偏见或版权问题传播到下游。
-
需要适当的技能和人才:与所有人工智能解决方案一样,最终结果取决于培训人员和用户的技能、知识和人才,特别是对于及时的工程和微调。
-
数据集成:将基础模型适配到特定的企业用例通常需要构建 RAG 流程、进行微调或进行重要的快速工程自动化。虽然实现这些目标的专业知识正在不断增长,但用于支撑这些模型的高效技术在技术上仍然复杂且成本高昂。
用户建议
-
计划将基础模型引入现有的语音、文本或编码领域。如果有任何较旧的语言处理系统,迁移到基于 Transformer 的模型可以显著提升性能。知识搜索、摘要和内容生成是各行各业流行的新兴用例。
-
从具有卓越生态系统支持和足够的企业安全和隐私防护且部署更广泛的模型开始。
-
在选择基础模型时,要客观地考虑准确性、成本、安全性和隐私性以及价值实现时间之间的平衡,以确定所需的合适模型。考虑到复杂性和高昂的成本,谨慎从头构建模型。
-
对开发人员和数据与分析团队进行有关指导这些模型所需的快速工程和其他先进技术的培训。
-
指定一个孵化团队来监控行业发展,传达“可能性的艺术” ,与业务部门进行实验并在全公司范围内分享宝贵的经验教训。
23、合成数据
影响力评级:较高
市场渗透率:目标受众的5%至20%
成熟度:早期主流
定义:合成数据是指人工生成的数据,而非通过直接观察现实世界获得的数据。合成数据在各种用例中被用作真实数据的代理,包括数据匿名化、人工智能和机器学习 (ML) 开发、数据共享以及数据货币化。
为什么重要
获取并标记用于人工智能开发的真实数据是一项耗时且昂贵的任务。尤其是在自动驾驶汽车模型训练等用例中,收集真实数据以覆盖所有边缘案例几乎是不可能的,甚至极其困难。这些挑战可以通过合成数据来弥补。合成数据可以快速、经济高效地生成,并且不包含个人身份信息 (PII) 或受保护的健康信息 (PHI),使其成为一项宝贵的隐私保护技术。前沿人工智能模型的兴起凸显了合成数据作为构建可扩展模型的经济高效手段的优势。
商业影响
各行各业的采用率都在不断提高,Gartner 预测,随着合成数据的出现,其采用率还将进一步提高:
-
避免在通过原始数据的合成变体或部分数据的合成替换来训练 AI 模型时使用 PII。
-
降低 ML 开发成本并节省时间。
-
随着更多“适合用途”的训练数据带来更好的结果,人工智能的性能也得到了提高。
-
使组织能够利用最少的真实数据来探索新的用例。
-
更有效地解决偏见和毒性等公平问题。
-
能够在真实但私密的数据上进行软件测试,且不存在立法风险或缺乏此类数据。
驱动因素
-
在医疗保健和金融等受监管的行业中,买家的兴趣正在增长,因为合成表格数据可用于保护人工智能训练数据中的隐私。
-
为了满足自然语言自动化训练(尤其是聊天机器人和语音应用)对合成数据日益增长的需求,供应商正在向市场推出新产品,通常用于训练领域生成式人工智能 ( GenAI)模型。这扩大了供应商的格局,并推动了合成数据的采用。
-
合成数据应用已经超越汽车和计算机视觉用例,包括数据货币化、外部分析支持、平台评估和测试数据开发。
-
Transformer 和 Diffusion 架构是 GenAI 的架构基础,它们能够以前所未有的质量和精度生成合成数据。AI模拟技术通过更好地重现现实世界的表征,提升了合成数据的质量。
-
合成数据仍有扩展到其他数据类型的空间。虽然表格、图像、视频、文本和语音应用很常见,但研发实验室正在将合成数据的概念扩展到图形和多模态人工智能。合成生成的图形将与原始图形相似,但不重叠。随着企业开始更多地使用图形技术,我们预计这种方法将会日趋成熟并推动普及。
-
随着训练前沿人工智能模型的数据提供商提高其数据访问成本,合成数据作为一种经济替代品正越来越受到关注。
障碍
-
合成数据可能存在隐性偏见问题,错过自然异常,开发复杂,或者不会为现有的现实世界数据贡献任何新信息。
-
虽然合成数据降低了隐私风险,但一些行业(例如医疗保健、金融)仍然面临监管不确定性,即它是否能够完全取代或增强真实数据以满足合规目的。
-
合成数据生成方法缺乏标准化。
-
验证合成数据的准确性非常困难。要确定合成数据集是否准确地捕捉到了底层的真实世界环境,可能极具挑战性。
-
由于缺乏技能,买家仍然对何时以及如何使用该技术感到困惑。
-
企业拥有遗留的数据管道,将合成数据集成到现有的数据湖、分析系统和人工智能工作流中通常需要额外的努力、工具和基础设施。
-
用户可能会产生一定程度的怀疑,因为数据可能被认为是“劣质的”或“假的”。
用户建议
-
确定组织中数据缺失、不完整或获取成本高昂的领域,从而阻碍 AI 计划。
-
制定明确的合成数据生命周期管理、存储和访问控制政策。
-
与法律和合规团队合作,确保合成数据符合行业法规,例如《通用数据保护条例》、《健康保险流通与责任法案》和《加州消费者隐私法案》。
-
通过培训项目,向内部利益相关者普及合成数据的优势和局限性。建立防护机制,以缓解用户疑虑和数据验证不足等挑战。
-
衡量并传达合成数据计划的商业价值以及成功和失败的案例。
24、边缘人工智能
影响力评级:较高
市场渗透率:目标受众的20%至50%
成熟度:成长期
定义:边缘人工智能 (Edge AI) 是指嵌入非 IT 产品(消费/商业、工业)、物联网 (IoT) 端点、网关和边缘服务器的人工智能技术。其功能涵盖消费、商业和工业领域,例如移动设备、自动驾驶汽车、增强型医疗诊断和流式分析。虽然边缘人工智能主要侧重于人工智能推理,但更复杂的系统也包含本地训练功能,用于优化边缘模型。
为什么重要
许多边缘计算用例对延迟敏感且数据密集,需要一定程度的自主性和数据主权,以实现本地决策智能。此类需求促使人工智能在各种边缘计算解决方案中得到广泛部署。边缘人工智能使危险和/或高度监管环境中的行业能够在运营环境中应用各种人工智能和机器学习 (ML) 技术。这些应用包括分布式、资源受限的资产,能够从改进的决策支持中获益,通过自动化机器任务提供闭环反馈,从而实现资产可靠性。
商业影响
-
实时数据分析和决策智能。
-
提高运营效率,例如用于质量管理、输出和流程效率的视觉检查系统。
-
通过嵌入在产品中的 AI 反馈增强客户体验 (CX)。
-
通过减少边缘和云之间的数据传输来降低连接成本。
-
持久功能,独立于连接性。
-
由于只有优先数据才会传递到核心系统,因此减少了存储需求。
-
在端点处保留数据隐私。
驱动因素
总体而言,边缘AI受益于AI能力的提升,包括:
-
MLOps 和 ModelOps 工具及流程日趋成熟,支持更广泛、更便捷地使用涵盖 MLOps 各项功能的更多功能。最初,许多公司进入市场时,只专注于模型压缩。
-
组合机器学习技术的性能得到提高,数据可用性也随之提高(例如来自工业资产的时间序列数据)。
企业对于全新和改进成果的需求,仅能通过使用边缘人工智能来实现,包括:
-
使用基于视觉的监视或检查解决方案来减少全职工作量。
-
通过自动化各种流程来提高制造生产质量。
-
优化跨行业的运营流程。
-
新的 CX 方法,例如移动设备上的个性化或基于边缘的智能结账销售点的零售变化。
-
保护隐私的边缘。
其他驱动因素包括:
-
越来越多的用户正在升级“棕地”环境中的遗留系统和基础设施。通过使用 MLOps 平台,AI 软件可以托管在边缘计算机或网关(聚合点)中,或嵌入到具有必要计算资源的产品中。
-
越来越多的制造商正在将人工智能嵌入到终端中,作为产品服务化的一部分。在这种架构下,物联网终端(例如汽车、家用电器和商业建筑基础设施中的终端)能够运行人工智能模型来解读终端捕获的数据,并驱动终端的某些功能。
-
训练研发需求的不断增长,使得自适应人工智能的边缘计算模型得以去中心化。这些新兴解决方案的驱动力源于一些明确的需求,例如隐私保护,或机器和流程在离线(脱离云端)场景下运行的需求。
障碍
-
边缘人工智能受到所部署设备的限制,例如外形尺寸、功率预算、数据量、决策延迟和安全性。
-
部署人工智能技术的系统可能具有不确定性。这将影响边缘人工智能在某些用例中的适用性,尤其是在安全性和安保性要求至关重要的情况下。
-
基于某些机器学习和深度学习技术构建的边缘AI解决方案的自主性,常常引发信任问题,尤其是在推理难以解释的情况下。随着自适应AI解决方案的增多,如果部署到等效端点的相同模型开始出现不同的行为,这些问题将会更加严重。
-
缺乏高质量且足够的训练数据是一个普遍面临的挑战。
-
神经网络深度学习是一项计算密集型任务,通常需要使用高性能芯片,并相应地配备高功耗预算。这限制了那些对小尺寸和低功耗要求至关重要的部署地点。
用户建议
-
确定使用边缘 AI 是否能提供合适的成本效益改进,或者传统的集中式数据分析和 AI 方法是否足够且可扩展。
-
评估何时考虑边缘 AI,而非集中式解决方案。边缘 AI 的良好候选对象是那些通信成本高、对延迟敏感、需要实时响应或在边缘提取大量数据的应用程序。
-
评估可用于支持边缘 AI 的各种技术以及提供这些技术的供应商的可行性。许多潜在供应商都是初创公司,他们可能拥有有趣的产品,但支持能力有限。
-
使用边缘网关和服务器作为聚合和过滤点,执行大部分边缘 AI 和分析功能。对于计算密集型端点,可以例外,因为基于 AI 的分析可以在设备本身上执行。
25、生成式人工智能
影响力评级:颠覆
市场渗透率:超过50%的目标受众
成熟度:成长期
定义:生成式人工智能 (GenAI) 技术可以通过从大量原始源内容库中学习,生成内容、策略、设计和方法的全新衍生版本。生成式人工智能对商业领域有着深远的影响,包括内容发现、创作、真实性和监管;人类工作的自动化;以及客户和员工体验。
为什么重要
GenAI正在企业中成为现实。Gartner 2024 年企业 AI 需求调查中的 AI 领导者报告称,2024 财年在 GenAI项目上的平均支出为 190 万美元,这反映出他们对 GenAI 未来潜力的信心。各国政府正在为 GenAI投入大量资金;供应商持续快速创新,提升模型性能、多模态性、推理和代理能力。训练数据、可解释性、微调、蒸馏以及 GenAI 应用的其他方面的研究正在快速发展,并已在商业和开源解决方案中得到体现。
商业影响
GenAI 拥有强劲的扩展势头,有望深入融入各个业务职能和行业的业务流程。全面集成的工具,辅以 AI 治理实践、强大的教育和 IT 支持,助力企业应对关键业务流程。多模态 GenAI 为生命科学、交通运输和教育领域带来了新的机遇。目前,GenAI 的应用重点是生产力、自动化和不断变化的工作角色。
驱动因素
-
GenAI 正在生命科学、制造、金融、法律和娱乐领域展现其价值。它正变得更加专业化,并针对编码辅助、科学发现、研究、诊断、法律分析和财务建模等领域进行了优化。此外,Gartner 调查显示,78% 的企业已经或计划将 GenAI 融入某些领域。
-
企业旨在通过将 GenAI 集成到其流程中,实现任务自动化、内容生成并提升客户体验。快速工程是定制 GenAI 用例的主要方法。
-
在 GenAI 前景的推动下,各国政府正在加大对国家人工智能战略的投资。
-
Agentic AI 凭借自动化优势以及将 GenAI 与其他技术相结合,成为今年 GenAI 价值主张的主要推动者。
-
GenAI 模型竞争仍在继续。GenAI 提供商正在不断改进模型质量和性能,并针对图像和视频输入提供更复杂的推理和处理能力。排行榜上列出了数百个大型语言模型 (LLM),其中包括各种在特定领域和任务(例如时间序列)中展现出精准度和成本效益的小型模型。通过提炼、截断和其他方法从大型模型中衍生出小型模型,可以降低延迟和成本。开源 LLM 使 GenAI 的使用更加民主化,并促进了生态系统的创新。
-
技术供应商和服务提供商在 GenAI 应用和模型产品以及其企业级应用、定价、基础设施、安全性和保障方面展开竞争。供应商和开源社区则为训练、微调、评估和生命周期提供更优质的工具。
-
基础设施创新和投资正在不断增加。超大规模计算公司和一些企业正在构建超级计算系统,将计算加速器、高速网络和性能优化存储方面的创新融为一体。与此同时,像 DeepSeek 这样的创新能够以更低的芯片和更低的成本有效地激发创意。
障碍
-
评估 GenAI 的价值并非易事。根据 Gartner 2024 年企业 AI 赋能调查,不到 30% 的 AI 领导者表示,他们的 CEO 对 AI 投资回报表示赞赏。企业面临生产力流失的问题,而 GenAI 的采用并不能直接产生价值。
-
技术挑战包括安全性、模型评估、数据可用性和质量以及推理计算管理。
-
成熟度较低的组织难以确定合适的用例,并且对 GenAI 计划抱有不切实际的期望。
-
先进的组织难以找到熟练的专业人员。新用户需要具备 GenAI 素养。
-
治理挑战包括幻觉、偏见、公平以及建立治理运营模式。政府监管可能会阻碍GenAI计划的实施。
-
GenAI 的许可和定价在各提供商之间并不一致。定价始终令人困惑,且不断变化,常常让客户措手不及。
用户建议
-
专注于 GenAI 能够有效解决的问题。开发方法,识别符合业务目标且能带来切实效益的有效 GenAI 用例。
-
设计与 GenAI 模型松散耦合的解决方案,以实现灵活的模型选择和组合。研究 GenAI 供应商的路线图,避免将自身资源投入到供应商未来将提供的功能上。
-
围绕 GenAI 产品组合制定 AI 就绪数据策略。计划通过检索增强生成或类似方法将您的专有数据整合到 GenAI 中。确保数据与 GenAI 模型相关、干净且可访问。
-
投资人工智能素养和人才技能提升,以便使用 GenAI 工具和技术。
-
建立 GenAI 治理运营模式、政策、管控和技术监督。考虑您和供应商的负责任 AI 实践。
-
规划运行 GenAI 计划的成本,包括基础设施、计算资源和持续维护。
稳步爬升复苏期
26、云端人工智能服务
影响力评级:较高
市场渗透率:目标受众的20%至50%
成熟度:早期主流
定义:云 AI 服务提供 AI 模型构建工具、预建服务的 API 以及相关中间件,支持在预建基础架构上以云服务的形式构建/训练、部署和使用机器学习 (ML) 和生成式 AI 模型。这些服务包括预训练的视觉、语言和其他生成式 AI 服务,以及自动化机器学习和微调,用于创建新模型和定制预建模型。
为什么重要
由于人们对生成式人工智能技术的兴趣和热度,云人工智能服务的使用持续增长。供应商已经建立了大型语言模型 (LLM) API 和解决方案,并完全集成了 MLOps 流程。低代码工具的加入进一步提升了易用性。应用程序经常在语言、视觉和表格数据中使用人工智能云服务来自动化业务流程。开发人员越来越多地在应用程序中使用预构建和定制的机器学习模型。
商业影响
云AI 服务影响着业务运行的应用程序,使开发人员能够通过智能自动化增强应用程序功能。生成式 AI 是这些解决方案中的最新类别。数据驱动的决策要求纳入机器学习模型来增强应用程序功能。一些 AI 技术正在走向成熟,但生成式 AI 的功能尚不成熟。云 AI 服务通过评分、预测和生成内容的模型来增强应用程序,从而实现数据驱动的业务运营。
驱动因素
-
对话交互的需求:生成式人工智能和LLM的出现促进了对话式应用程序的发展,用户可以使用 LLM 和数据源来获取洞察力。
-
利用数据投资的机会:来自内部和第三方来源的大量数据对于构建预测性 ML 模型非常有用,这些模型可以在应用程序中实现数据驱动的决策智能。
-
需要满足业务关键绩效指标 (KPI) :企业需要通过部署AI 和 ML 模型来实现流程自动化,以提高准确性、提高响应能力并降低成本。
-
降低准入门槛:使用预训练的生成式 AI 模型并进行微调的能力,减少了训练模型所需的大量数据。由于可通过 API 调用的 LLM 的出现,开发者和公民数据科学家能够访问 AI 和 ML 服务,这将进一步扩展开发团队对 AI 的使用范围。
-
自动化机器学习作为定制开发的推动者:使用自动化机器学习来定制打包服务以满足特定的业务需求更加容易,并且不需要数据科学家。
-
广泛的云 AI 服务:市场上有一系列专业提供商提供云 AI 服务,包括编排层以简化解决方案的部署。
-
新兴的人工智能模型市场:新的市场应该帮助开发人员采用预测和基础模型。
障碍
-
开发人员和公民数据科学家缺乏如何将云 AI服务适应特定用例的理解。
-
构建生成式 AI 模型是一项挑战,需要精心设计的检索增强生成 (RAG) 解决方案,这些解决方案通常包含向量嵌入和其他功能。许多云计算 AI 开发者服务 ( CAIDS ) 提供商将这些功能作为其生成式 AI 产品的一部分提供。
-
基于使用量的云AI服务的定价模型会给企业带来风险,因为与使用相关的成本可能会快速累积。企业需要全面的成本建模工具来解决这一问题。
-
开发人员和公民数据科学家对利用多种服务的打包解决方案的需求日益增加。
-
开发人员缺乏及时的工程和微调等技能,无法以负责任的方式有效地实施这些服务。
用户建议
-
通过尝试各种 AI 技术,包括使用 LLM 和多模态模型等生成式 AI 模型以及其他云服务,提高 AI 战略的成功率。随着技术的快速发展,请确保生成式 AI 模型保持松散耦合。
-
使用云 AI 服务构建不太复杂的模型,享受更高效的 AI 优势,同时释放数据科学资产以用于更高优先级的项目。
-
为非数据科学家提供自动算法选择、数据集准备和项目元素特征工程等功能。利用现有的云服务运营专业知识,协助技术专业团队。
-
利用预先训练的生成式 AI 模型,可以快速构建原型并部署支持 LLM 的解决方案。
-
开发成本建模工具,使企业能够有效地预测使用成本和管理成本,因为人工智能模型已广泛部署在整个企业的应用程序中。
27、知识图谱
影响力评级:较高
市场渗透率:目标受众的20%至50%
成熟度:早期主流
定义:知识图谱是物理和数字环境的机器可读表示。它们包含实体(人员、公司和数字资产)及其关系,这些实体遵循图形数据模型——由节点(顶点)和链接(边/弧)组成的网络。
为什么重要
知识图谱以直观的视觉格式捕捉世界信息,同时仍能展现复杂的关系。知识图谱是众多产品的支柱,包括搜索、智能助手和推荐引擎。知识图谱支持协作与共享、探索与发现,以及通过分析提取洞见。生成式人工智能模型可以与知识图谱相结合,为更精准的输出提供上下文,这种技术被称为 GraphRAG。
商业影响
知识图谱可以在各种不同的环境中推动业务影响,包括:
-
数字化工作场所,例如协作、共享和搜索。
-
自动化,例如从内容中提取数据到机器人过程自动化。
-
机器学习 (ML),例如增强训练数据。
-
调查分析,例如执法、网络安全和风险管理。
-
数字商务,例如产品信息管理和推荐。
-
数据管理,例如元数据管理、数据编目和数据结构。
驱动因素
-
需要利用知识图谱提供的明确知识、规则和语义来补充仅检测数据模式的AI 和 ML 方法(例如当前一代的基础模型)。
-
希望更好地利用文档、信函、图像和视频中的非结构化数据,使用可关联和管理的标准化元数据,并为 AI 就绪数据提供基础。
-
越来越多地使用具有大型语言模型的知识图谱来在回答大量企业数据问题时提供增强的上下文理解。
-
人们越来越意识到知识图谱在消费产品和服务中的应用,例如智能设备和语音助手、聊天机器人、搜索引擎、推荐引擎和路线规划。
-
Web3 应用程序的新兴前景和跨信任网络的数据访问需求,导致了去中心化知识图谱的创建,以构建不可变且可查询的数据结构。
-
需要管理越来越多的数据孤岛,其中的数据经常重复,并且含义、使用和消费模式不明确。
-
使用图形算法和机器学习来识别复杂网络中的影响者、客户群、欺诈活动和关键瓶颈。
障碍
-
人们对知识图谱用例的认识正在提高,但在早期实施阶段很难捕捉到商业价值和相关性。
-
将知识图谱模型从原型转化为生产需要工程和系统集成方面的专业知识。在知识图谱规模化过程中,如何维护知识图谱——确保可靠的性能、处理重复数据并保持数据质量——的方法仍然不成熟。
-
组织希望能够获取、验证和共享与地理、人物和事件等实体相关的本体和数据。然而,使内部数据与外部知识图谱互操作是一项挑战。
-
内部专业知识(尤其是领域专家)匮乏,而且很难找到第三方提供商。专业知识通常掌握在图形技术供应商手中。可扩展性和优化方面的技能也很难获得。
用户建议
-
通过评估数据和分析 (D&A) 领导者、从业人员以及业务领域专家的技能,创建一个由知识图谱从业人员和赞助商组成的工作组。应考虑用例需求、数据特征、可扩展性预期、查询灵活性以及知识图谱领域知识等因素。
-
进行试点,以确定需要定制知识图谱的用例。试点不仅要为业务带来切实的价值,还要促进数据与分析员工的学习和发展。
-
创建一个最小可行子集,用于捕获业务领域的信息,从而缩短价值实现时间。评估知识图谱所需的结构化和非结构化数据,并遵循敏捷开发原则。
-
利用供应商和服务提供商的专业知识来验证用例、教育利益相关者并提供初步的知识图谱实施。
-
我将知识图谱纳入数据与分析 (D&A) 治理和管理的范畴。为了避免数据孤岛的持续存在,需要研究并建立多个知识图谱之间互操作并向数据结构扩展的方法。
28、模型蒸馏
影响力评级:较高
市场渗透率:目标受众的5%至20%
成熟度:成长期
定义:模型蒸馏是一种技术,它训练一个较小、较简单的模型(“学生”)来复制一个较大、较复杂的模型(“老师”)的行为。这是通过让学生模型从老师模型的预测中学习来实现的。目标是保留老师模型的性能,同时受益于学生模型的效率和更少的资源需求。
为什么重要
在部署 AI 模型时,组织经常面临准确性和效率之间的权衡。较大的模型或模型集成往往具有更高的准确性,但需要更多的计算资源,并且可能存在延迟问题。较小的模型效率更高,所需的计算资源更少,但从头开始训练时准确性往往较低。模型蒸馏有助于将大型模型的信息内容转移到较小的模型中,从而在保持性能的同时提高效率。
商业影响
模型蒸馏可以提供:
-
降低成本和提高能源效率:较小的模型在部署期间需要更少的计算资源,从而减少资本投资、运营成本和能源消耗。
-
更快的推理时间:高效的模型可以缩短推理时间,从而实现实时应用并改善用户体验。
-
合规性和隐私性:较小的模型可以在本地或设备上部署,这有助于满足数据隐私法规。
驱动因素
-
基础模型的发展:随着基础模型规模越来越大、功能越来越强大,它们能够生成高质量的合成数据,但同时也带来了部署成本方面的挑战。这些发展既催生了模型蒸馏的推动因素,也催生了对模型蒸馏的需求。
-
边缘计算和移动应用的增长:边缘计算和人工智能驱动的移动应用的兴起,要求人工智能模型能够在计算能力有限的设备上高效运行。模型蒸馏有助于创建适合部署在这些设备上的较小模型。
-
更加注重可持续性:随着各组织努力减少碳足迹,对节能型AI解决方案的重视程度也日益加深。模型蒸馏通过减少模型部署和运行所需的计算资源和能源,为可持续性发展做出了贡献。
-
迁移学习的进步:迁移学习的发展增强了将知识从大型模型迁移到小型模型的能力,从而提高了模型蒸馏技术的有效性。这使得蒸馏后的模型在保持高效性的同时,能够实现更高的准确率。
-
监管压力与数据隐私:围绕数据隐私和保护的法规日益增多,推动了对可部署在本地或设备上的 AI 模型的需求,从而最大限度地减少数据传输和暴露。模型蒸馏通过在安全环境中部署高效模型来支持合规性。
障碍
-
模型准确度损失:与教师模型相比,学生模型可能会损失一些准确度,尤其是当学生模型的参数明显少于教师模型时。
-
蒸馏过程的复杂性:该过程可能需要更高水平的技术专业知识,这对某些组织来说可能是一个障碍。
-
跨领域的推广能力有限:蒸馏出的模型可能无法在各个领域很好地推广,从而限制了它们在不同任务中的适用性。
-
依赖高质量的教师模型:蒸馏的成功取决于教师模型的质量;任何偏见、低效率或潜在的知识产权侵权风险都可以转嫁给学生模型。
-
对教师模型的许可限制:一些提供商对教师模型输出的使用施加限制,禁止其用于其他模型的训练,这可能会限制蒸馏工作的可行性。
用户建议
-
优化部署成本:使用模型蒸馏来减少计算资源并降低运营费用,同时保持模型性能。
-
优先考虑高质量的教师模型:确保你的教师模型与目标任务高度匹配、经过充分优化且无偏差。这将提升蒸馏模型的质量。
-
投资专业知识:投资于熟练的人员或培训项目,以实施有效的模型蒸馏。这将确保您的AI解决方案准确高效。
-
符合法规合规性:使用模型蒸馏创建可在本地或设备上部署的高效模型。这种方法可以减少隐私和安全隐患,并简化法规合规性。