论文总结-AI Act-The EU‘s AI Act:A Framework for Collaborative Governance

编按:

本文发表于《Internet of Things》期刊(2024年10月)。该文研究类型为综述,重点探讨了全球首部针对人工智能全面监管的法律框架——欧盟人工智能法案(AI Act),特别是该法案中涉及协同治理的内容。鉴于欧盟为第一个对AI进行监管的地区,故据“布鲁塞尔效应”,欧盟可以设定事实上的全球标准,其标准和立法具有重要的域外影响,持续研究该法案内容和观察其后续实践,对于理顺跨境数据流通办法、创设对齐隐私保护等监管侧政策与标准的制定具有借鉴意义,亦对于企业及时调整出海政策的具有现实商业价值。其他研究另外推荐上海市人工智能社会治理协同创新中心、金杜律师事务所的相关文章,因系中文研究,在此不再赘引。

论文总结

根据论文《欧盟人工智能法案:协同治理框架》的分析,欧盟人工智能法案(AIA)采用了协同治理框架,旨在通过多方利益相关者的合作与互动,确保人工智能技术的道德和合法发展。以下是对AIA如何实现协同治理的总结,以及作者对该框架的优势、问题及改进措施的分析:

1. AIA如何实现协同治理:

  • 建立多层次治理结构:AIA设立了一个复杂的治理框架,涉及欧盟层面和国家层面的协调与合作。具体包括:

    • 欧洲人工智能委员会:由各成员国的代表组成,负责提供咨询与建议,并推动成员国之间的政策一致性。
    • 欧洲人工智能办公室:负责在欧盟层面监督和推动AIA的实施,提供监管与支持。其任务包括监控AI模型和系统的实施,跟踪不可预见风险的出现,并协调跨国的人工智能治理合作。
    • 国家主管部门:各成员国设立自己的主管部门,负责国家层面的监管工作,并确保本国AI产业与AIA的规定相一致。
    • 咨询论坛与科学小组:这两个机构包括来自各利益相关方的代表(如行业、学术界、民间社会等),其任务是提供技术建议和专家咨询,确保决策过程充分反映社会各方的利益与观点。
  • 多方参与和持续对话:协同治理框架强调不同利益相关方的持续参与,尤其是在AI的开发、部署和监管过程中。通过与政府、行业、专家、学术界及公众的对话与协作,确保了政策的透明性、合法性和广泛的社会接受度。

  • 知识共享和合作:协同治理不仅是政府与利益相关者之间的对话,也是知识共享的过程。不同领域的专家和利益相关者(如技术专家、伦理学家、政策制定者)通过共同努力促进AI的道德、合规发展。

2. AIA协同治理的优势:

  • 提高政策制定的透明性和合法性:通过让多个利益相关者参与政策制定过程,AIA能够整合不同的观点和专业知识,从而制定出更加全面和公正的AI监管政策。

  • 增强跨部门、跨国合作:AIA框架促进了欧盟和成员国之间的合作,使各国能够在相互协调和信息共享的基础上有效实施AI监管,并确保在全球范围内形成一致的治理体系。

  • 促进创新和竞争力:通过鼓励利益相关者(包括学术界、行业和政府)的共同合作,AIA在确保AI技术合法、安全使用的同时,也为创新和技术进步提供了支持,为欧洲保持竞争力提供了保障。

  • 灵活适应AI发展:AIA的协同治理框架强调与各方的持续对话,使得监管框架可以动态调整和适应AI技术的快速发展,避免出现监管滞后的问题。

3. AIA协同治理面临的问题:

  • 公平的代表性:协同治理框架的一个关键挑战是确保所有利益相关方的公平参与,尤其是在较为强势的利益集团(如大型企业)可能主导政策制定的情况下。行业参与者的影响力可能使得治理过程变得不够公正,导致利益平衡失调。

  • 跨学科与跨部门的沟通挑战:AI的复杂性要求多方利益相关者之间进行跨学科的合作。然而,技术专家、伦理学家和政策制定者之间的沟通可能存在障碍,导致决策过程中的信息不对称,影响决策的效果。

  • 监管的灵活性与一致性之间的矛盾:AIA的协同治理框架虽然强调灵活性,但在确保各成员国和各部门之间的政策一致性时,可能会出现不一致性问题。过度强调灵活性可能导致成员国在实施上存在差异,影响欧盟整体AI监管目标的达成。

  • 权力集中与自我治理的风险:尽管AIA提出协同治理,但一些学者(如Levesque)批评,行业内的主导参与者可能通过自我治理来规避法规责任,而非真正促进全面合作。部分利益相关者可能通过影响政策制定进程,将规制责任推给弱势群体或公众。


欧盟人工智能法案:协同治理框架

一、引言

2024年2月,欧盟理事会和欧洲议会(EP)达成了一项关于人工智能法规的协议(通常称为人工智能法案,AI Act,下称AIA)。该法规评估人工智能应用,以确保其以道德和负责任的方式使用,促进在整个欧盟单一市场内安全合法的人工智能发展。该法案建立了一个全面的法律框架,采用基于风险的方法,旨在平衡保护欧洲公民的健康、安全和基本权利,并确保欧洲不断发展的人工智能产业保持竞争力并继续创新。

《人工智能法案》将建立旨在实现整个欧盟有效实施的协作治理机制。具体规定,将设立欧洲人工智能委员会、一个咨询论坛和一个科学小组。此外,将在国家一级设立所谓的国家主管部门。

本文的主要目标是批判性地考察AIA建立的治理体系(法案版本:April 2024),探讨在欧盟范围内实施AI的机制和结构设计,给出对其协同治理的优势和潜在的改进意见。

(略,AI优势)

一段时间以来,监管方法侧重于伦理维度,倡导公司和用户对人工智能进行自我监管或负责任使用。后来,重点开始转向法律监管(具有约束力的立法)。这不仅旨在防止人工智能的潜在滥用,而且旨在为创新营造一个道德和可持续的环境。最终,法律框架将提供确定性,激励投资和创新,同时减轻潜在风险。

以欧盟人工智能法规为例,该法规包含专门章节概述了协作治理结构,该结构利用欧洲和国家机构,同时促进利益相关者的参与。此外,在这一合作方法的基础上,该条例的灵感来自于以人为本的愿景。愿景强调了“进步应该始终以以人为本的视角为导向,即寻求增强人类智力和能力,而不是取代它们”。优势如下:利用欧洲和国家机构,同时积极鼓励利益相关者的参与。这种方法借鉴了协同治理的概念,其特点是公共机构或机构与不同利益相关者(公民、企业、非政府组织、专家等)在政策制定过程中持续进行知识交流。这种方案治理超越了简单的咨询,促进了协作决策过程。促进对话,整合了不同的观点,从而制定出更明智的政策。协作治理营造了更具包容性和协作性的环境,促进了知识共享,最终提高了信任度和合法性。 然而,有效地实施面临着一系列挑战。确保公平的代表性是一个关键,因为有影响力的利益相关者可能会主导这一过程(例如,“控制”政策制定)。 

首先,人工智能的巨大复杂性要求采取多方利益相关者参与的方式,借鉴来自不同领域的专业知识,以制定有效和全面的AI监管措施。因此,协作确保了全面的理解。其次,人工智能发展的快速步伐需要一个灵活且适应性强的监管框架。协作视角允许持续的利益相关者参与,促进持续对话,并确保法规能够随着人工智能技术的发展而调整。

本文深入探讨了欧盟在人工智能领域采取行动的必要性,并对导致当前人工智能法案(AIA)制定的关键步骤进行了历史分析。其核心是最近成立的欧洲人工智能办公室(launched in early 2024),该办公室被视为欧洲统一的人工智能治理方法的基石。然后,我们将探讨其机构职能及其与其他关键参与者的合作,包括欧洲人工智能委员会、委员会的欧洲算法透明度中心(ECAT)和国家当局。

二、A1立法背景:理解其广泛影响

(略,人工智能的好处和弊端)

为了应对潜在威胁,我们可以将灾难性人工智能风险的主要来源归类为四个关键:1)恶意使用,即个人或团体故意利用人工智能造成伤害;2)人工智能竞赛,其特点是竞争环境驱使行动者部署不安全的AI系统或放弃对AI的控制;3)组织风险,强调人为因素和复杂系统如何增加灾难性事故的可能性;以及4)失控的AI,描述了控制智力超过人类的智能体的固有挑战。

人工智能系统的固有复杂性,通常被描述为“黑箱”,对有效监管提出了重大挑战。专家警告,随着人工智能日益普及,伦理、隐私和人身安全方面面临着挑战。制定专门的人工智能立法至关重要,以建立一个规范开发人员权利和责任的监管框架。该框架应保持平衡,确保保护个人权利,建立伦理限制,并促进算法透明度。总之,随着人工智能应用在公共和私营部门的广泛应用,它已从一项技术创新转变为一个需要有效治理的主题。

  • 欧盟:走向有效监管道路的Al

(立法过程中主要举措的回顾,此处仅罗列关键点位)

2018年,欧盟委员会就成立了人工智能高级专家组(IA HLEG),讨论人工智能的伦理、法律、经济和社会方面。它汇集了专家意见,召集了广泛的利益相关者联盟,并起草了人工智能伦理准则。其任务是就建立一个广泛而多元的利益相关者社区(“欧洲人工智能联盟”)向欧盟委员会提供建议,支持即将到来的欧盟人工智能倡议的实施,并根据欧盟基本权利起草人工智能道德开发和使用指南。该倡议旨在考虑公平、安全、透明、民主等问题,更广泛地考虑对基本权利宪章应用的影响。几个月后,专家组提出了《值得信赖的AI政策和投资建议》,为该问题提供了进一步的指导和建议。

同样在2018年2月,欧盟成员国(以及挪威)签署了《人工智能合作宣言》,表达了共同努力,推动欧洲方案的强烈意愿。他们的目标是确保欧洲在人工智能研究和部署方面的竞争力,同时共同解决社会、经济、伦理和法律问题。在这一宣言之后,人工智能在欧洲政策议程中占据了首要地位,并得到了强有力的政治支持。

2018年4月,the Juncker Commission发布了《欧洲人工智能战略》,为欧洲未来监管制定了路线,并将其描述为“21世纪最具战略意义的技术”之一。基于该文件,欧盟委员会于2018年12月发布了《人工智能协调计划》,旨在促进欧盟成员国(以及挪威和瑞士)与欧盟委员会之间的更紧密合作。本文件界定了四个关键领域:增加投资、增加数据可用性、促进人才培养以及发展道德和可信赖的A1。该计划于2021年4月进行了审查。其目标是巩固欧盟在可信赖AI领域的领导地位,并专注于加速AI投资以促进经济和社会复苏,及时实施AI战略,以及协调AI政策以应对全球挑战并消除碎片化。

2019年,人工智能伦理高级专家组(Al HLEG)发布了一套伦理准则。该文件旨在为未来的监管行动提供信息,并促进可信赖人工智能(A1)的发展。根据这些准则,可信赖人工智能应符合以下标准:合法(尊重所有适用的法律法规)、道德(遵循道德原则和价值观)以及稳健(在技术和社会环境方面都稳健)。

同年,欧盟委员会发布了《建立对以人为本的人工智能的信任和信心》的通告。该文件提到了可信赖人工智能的一些关键要求,包括确保人类的能动性和监督、技术稳健性和安全性、隐私和数据治理、透明度以及问责制。这些要素对于构建用户可以依赖和信任的AI系统至关重要。这些指南由可信赖AI评估清单补充,该清单作为操作工具。它将道德AI的关键要求具体化,并为开发人员和部署人员提供实际指导(清单)以供实施。2020年7月,人工智能高级专家组(AI HLEG)发布了其关于可信赖人工智能(Assessment List for Trustworthy AI,ALTAI)的最终评估清单。

尽管落后于美国和中国,欧盟委员会正式承认了人工智能和数据在经济和地缘战略方面的战略重要性,并在2020年2月发布了《人工智能白皮书》和《欧洲数据战略》。

2020年2月,欧盟委员会发布了《人工智能白皮书:欧洲通往卓越和信任之路》。^一方面,该文件认为,推动数字化是促进竞争力、推动欧洲进步和社会福利的关键因素;另一方面,该文件也承认人工智能和数据在经济和地缘战略上的重要意义。为此,本文件附带了欧洲数据战略。这两份文件是数字战略的第一个支柱,该战略在欧洲数据战略中提出,旨在推动建立一个共同的数据空间,数据可以在所有部门流通;特别是所谓的“战略部门和公共利益领域的共同欧洲数据空间”(工业、欧洲绿色协议、移动、健康、金融、能源、农业和公共行政数据)。除了促进欧洲一体化,人工智能在欧盟的发展也至关重要,因为数据毕竟是人工智能的原材料。

2020年7月23日,欧盟委员会提出了一项关于人工智能的法案提案。

2021年4月,补充上述协调计划,欧盟委员会提出了首个关于人工智能的法律框架。提案将人工智能应用分为四个风险等级:不可接受、高风险、有限风险和最小风险。该法规旨在确保欧洲人能够信任他们使用的人工智能,同时促进人工智能领域的卓越生态系统,增强欧盟的全球竞争力。与此同时,欧盟委员会发布了《促进欧洲人工智能方法的通告》,概述了欧盟的人工智能战略,强调信任、竞争力和伦理考量。该通告旨在确保欧洲在人工智能发展方面保持领先地位,同时保障公民的权利和价值观。

(中间推动议程和文稿见原文)

在欧盟构建协作式人工智能治理中,我们指的是“一套规则、实践、流程和技术工具,用于确保组织使用人工智能技术符合组织的战略、目标和价值观;满足法律要求;并符合组织遵循的伦理人工智能原则”。除了制定法律和伦理框架(伦理指南、最佳实践或行为准则等)之外,人工智能伦理原则的协调和有效实施还需要明确的治理机制。这些机制应主要促进机构、社会和其他利益相关者之间的合作,使他们在动态和不断变化的环境中实现政策目标,而不会对社会造成重大干扰或损害。另一方面,人工智能治理必须敏感,并考虑机构、行为者和利益相关者的动机和激励。它应该平衡人工智能的益处和风险,利用知识和评估进展的能力,实施支持理想结果的激励和制裁。

AIA第VII章(AIA第64条至第70条),专门概述了主要的治理机制。第一部分专门针对联盟层面的治理,第二部分则针对国家主管部门。该治理体系的第一个要素是在欧盟层面发展专业知识和能力,这对于促进理解、促进人工智能条例的实施和执行以及实施人工智能国际规则和原则(例如七国集团行为准则和高级人工智能系统开发人员指导原则)至关重要。首先,第64条规定设立欧洲人工智能办公室,旨在发展欧盟内部人工智能领域的专业知识和能力。欧盟委员会负责设立和管理该办公室,成员国必须支持分配给人工智能办公室的任务。

为了确保及时准备实施《人工智能法案》(AIA,第64条),欧盟委员会于2024年2月设立了欧洲人工智能办公室,负责监督《人工智能法案》在成员国的执行和实施。总体而言,其主要目标是支持《人工智能法案》的执行,特别是针对通用人工智能。它致力于确保人工智能技术尊重人类尊严、权利和信任,同时促进利益相关者之间的合作、创新和研究。此外,它积极参与国际对话与合作,以协调全球人工智能治理,旨在将欧洲定位为人工智能技术道德和可持续发展领域的领导者。欧洲人工智能办公室已建立为通信网络、内容和技术总司行政结构的一部分,并受其年度管理计划的约束(决定第1条)。值得注意的是,它不是一个机构。

在第2条中,欧盟委员会决定规定,该办公室应执行第3条中概述的任务,以实施和执行AIA。根据该条的规定,关于其实施,该办公室执行源自AIA的特定任务。特别是,“1.本办公室将执行以下源于即将出台的法规的任务:

(a)开发评估通用人工智能模型能力的工具、方法和基准,特别是针对具有系统性风险的超大型通用人工智能模型。

(b)监测通用人工智能模型和系统规则的实施和应用,特别是在模型和系统由同一提供商开发的情况下。

(c)监控通用人工智能模型带来的不可预见风险的出现,包括响应科学小组的警报;

(d)调查可能违反通用人工智能模型和系统规则的行为,包括收集投诉和警报,协助委员会制定决策,并根据即将出台的条例进行评估。

(e)确保当人工智能系统属于委员会拥有监督和执行权的欧盟相关立法范围时,例如根据欧洲议会和理事会条例(EU)2022/2065(7)或根据欧洲议会和理事会条例(EU)2022/1925(8),该立法的监督和执行与即将出台的条例的监督和执行充分协调;(f)支持在与根据部门立法负责的相关机构协调的情况下,实施禁止的人工智能实践和高风险人工智能系统的规则,包括促进国家当局之间信息交流和合作,收集通知并建立信息平台和数据库,特别是在通用人工智能模型或系统被集成到高风险人工智能系统时。

2.此外,为了有效实施即将生效的条例,该办公室的任务是:

(a)协助委员会准备相关的委员会决定,以及实施和授权行为;

(b)促进即将生效的条例的统一适用;[...]

(c)协调建立有效的治理体系,包括筹备在联盟层级设立咨询机构,以及监测在国家层级设立相关国家机构和其他机构;

(d)为人工智能委员会及其小组提供秘书处服务,并为咨询论坛和科学小组(如适用)提供行政支持,包括提供行政设置,组织会议和准备相关文件;[...]

值得注意的是,人工智能办公室将通过合作的方式履行其职责,与利益相关者、人工智能模型提供者、相关专家和社会实体进行互动。它还考虑与其他相关机构和部门合作,以促进人工智能技术的社会和产业效益;特别是与欧洲算法透明度中心合作。沿着这些思路,它还涉及机构间合作(欧盟其他机构、办事处和机构)和国际合作。

其他治理机制在第七章:人工智能监管治理中规定,该章设立了欧洲人工智能委员会(人工智能法案第65条)。该委员会由每个成员国各派一名代表组成,欧洲数据保护监督员以观察员身份参与。人工智能办公室也参加理事会会议,但没有投票权。其他国家和欧盟当局或专家可根据具体情况受邀参加。各成员国的代表任期三年,可续任一次,必须具备相关能力和权力,并作为理事会和利益相关者的单一联络点。他们必须获得授权,以促进其成员国国家主管部门之间的一致性和协调,以便实施AIA。委员会选择主席(由成员国代表之一担任)并设立两个常设小组,分别负责市场监管,并可根据需要创建其他小组。它旨在确保客观性和公正性。人工智能办公室提供秘书处支持。

AIA第66条规定,“委员会应向委员会和成员国提供咨询和协助,以促进本条例的一致有效适用”。例如,委员会可以促进国家主管部门之间的协调,收集和分享成员国之间的技术和监管专业知识和最佳实践,就实施本条例提供建议,特别是关于执行通用人工智能模型规则的建议等。

根据第67条,理事会将得到一个咨询论坛的协助,为理事会和委员会提供技术专业知识和建议,支持他们在《人工智能法案》下的任务。咨询论坛的成员将由利益相关者组成,包括来自行业、初创企业、中小企业、民间社会和学术界的代表,以确保成员的平衡性。会员资格将在商业利益和非商业利益之间保持平衡,并特别考虑中小企业和其他商业实体。最后,第68条概述了建立一个独立专家科学小组,旨在支持AIA下的执法活动。“科学小组将由委员会根据其在人工智能领域最新的科学或技术专长选出的专家组成。这些专家应以公正和客观的立场履行其职责,确保其活动期间获得的信息和数据的保密性。

最后,AIA第70条涉及国家主管部门(和单一联络点)的指定。特别是,它指出“每个成员国应为本条例[AIA]的目的,至少设立或指定一个通报机构和一个市场监管机构作为国家主管部门”。此外,这些机构将独立、公正、无偏见地行动,以维护其活动的客观性,并确保AIA的应用。主管国家当局也必须遵守保密义务。它还规定成员国必须确保国家主管当局获得足够的财政和人力资源,以履行其从AIA中产生的任务。具体而言,这些主管当局应拥有足够数量的具备人工智能技术、数据和数据计算、个人数据保护、网络安全、基本权利、健康和安全风险方面的专业知识,以及了解现有标准和法律要求的人员。国家主管当局还可酌情参考委员会和委员会的指导和建议,就本条例的实施提供指导和建议。

在治理方面,国家主管部门将在国家层面监督人工智能法案规则的实施,而欧洲人工智能办公室将在欧洲层面确保协调。除了国家当局之外,人工智能办公室将是全球第一个执行人工智能约束性规则的机构,因此有望成为国际参考点。该职位将因其与欧洲人工智能委员会、咨询论坛和科学小组的联系而得到加强,这些小组有助于将社会经济和技术维度(行业、科学界、民间社会和其他利益相关者)纳入其中。显然,这种治理机制必须能够承担其所赋予的任务,最重要的是,保证法规的实施和遵守。人工智能办公室的创建旨在成为人工智能专业知识的中心,并成为欧洲单一人工智能治理体系的基础。简而言之,在治理方面,建立了一个由欧洲和国家当局组成的网络,该网络基于新的专门组织(以及监管机构的部门网络)。国家当局之间以及与欧盟委员会之间的合作是核心要素。

确保人工智能法规的持续实施需要单一且集中的治理方法。为了实现这一目标,人工智能办公室、人工智能委员会和咨询论坛应作为中央协调者。这需要通过有效的沟通渠道,促进与行业、专家和利益相关者的持续互动。此外,与负责人工智能治理的国家当局合作对于确保欧盟不同司法管辖区之间的一致性至关重要。通过培养协作和集中化的方法,欧盟可以努力实现有效和一致的人工智能治理。

结论

正如我们所指出的,本文的主要目标是批判性地考察AIA建立的治理体系。然而,一个重要的限制是缺乏实际的实施。因此,我们将注意力集中在当前AIA版本的内容上。

正如我们所观察到的,人工智能提出了一系列挑战,并可能产生负面影响。虽然一些挑战可以独立考虑,但许多挑战高度相互关联,同时引发了社会、伦理和法律问题。通过批准《人工智能法案》,欧盟采取了一种强调政府在确保利益相关者价值方面的作用的观点。它假设政府机构应该利用各种功能,为所有参与人工智能开发和使用的人创造积极的影响。因此,正如Birkstedt等人[]指出,人工智能治理“是关于人类如何最好地推进人工智能发展,它包含三个主要要素:技术环境(人工智能的局限性和范围)、理想治理(促进利益相关者合作的潜在途径)和人工智能政治(影响利益相关者的政治动态)”。

欧盟的治理机制响应了基于这些紧密联系的整体或综合观点。正如李指出的那样,“跨学科合作和利益相关者参与对于解决与人工智能开发和部署相关的多方面挑战和伦理问题至关重要。计算机科学家、伦理学家、政策制定者和行业利益相关者之间的合作促进了不同视角、专业知识和价值观在人工智能技术的设计、实施和治理中的整合”.

同样地,Sonko等人[3]指出,人工智能开发的综合方法需要在整个研究和部署过程中整合技术、伦理和社会因素。这需要认识到技术进步、伦理原则和社会影响之间的相互联系,并采用跨学科的视角,以考虑不同的观点、价值观和优先事项。通过采取整体方法,我们可以全面系统地解决与人工智能相关的复杂挑战和伦理困境,确保人工智能技术以造福人类的方式开发和部署,同时最大限度地减少风险和负面影响。

欧盟已建立治理机制,以应对与人工智能相关的挑战,防止个人和社会危害,同时建立对人工智能的信任和社会接受度。这些机制基于欧洲和国家公共当局之间的协调,以及公共和私人行为者的合作。这些要素是成功地在复杂的人工智能领域实施监管的关键因素。此外,与其他治理机制一样,欧盟工具必须能够对变化做出快速灵活的反应。政策制定者将评估人工智能的技术进步,并能够迅速采取适当措施做出反应。正如Carsten(2021)所写,“治理需要为行动者提供空间,让他们学习和发展对技术的理解,包括其使用和评估。它必须基于利益相关者之间的沟通并促进这种沟通。它还应允许承认错误,并具备在最初假设被证明错误或出现新的见解或共识时逆转或改变方向的能力”。

正如我们所见,AlA中规定的治理机制通过引入来自国家行政部门的代表或来自私人组织的专家,响应了一种协作逻辑。通过这种方式,这些代表和专家除了制定法规和标准外,还提供有关当前和未来人工智能问题的最新信息和知识,并提出新的建议。公共组织与私营实体之间的沟通交流也受到青睐,这在人工智能这样充满活力的领域中至关重要。

然而,一些学术声音对这些协作治理机制持批评态度。例如,Levesque指出,“虽然协作人工智能治理旨在积极地将利益相关者和受影响的利益相关者纳入上游,但权力集中在少数行业参与者手中,这会导致自我治理。[.]声称体现协作治理的人工智能监管实际上促进了受监管实体的自我治理.[]对协作治理的光鲜亮丽的宣传信息提出了质疑,这些信息声称明智地将所有人纳入人工智能监管,而实际的立法机制却有效地将人工智能公司与公众监督隔离开来。根据同一作者的说法,这一断言基于两个关键点。首先,既定的行业参与者对所谓的参与流程拥有过大的影响力。其次,拟议立法中的漏洞激励受监管实体规避最繁重的义务层级。

同样地,Birkstadt等人指出,在制定人工智能系统规则(法规、规范和客户需求)的人员与执行这些规则的开发人员之间存在着权力失衡。这种失衡会导致人工智能治理原则的偏颇应用,可能有利于私营组织,特别是在发达经济体。除了技术专长和权力的分配不均外,他们还指出在AIG[人工智能治理]的不同利益相关者之间存在着等级制度,体现在他们的影响力程度、具体责任和问责制水平上。

总之,对协作式人工智能治理框架内不断变化的动态和实施模式进行批判性评估至关重要。这种持续的审查对于在保障欧洲公民权利和促进欧洲竞争性、创新型人工智能产业之间取得平衡至关重要。

翻译声明:

本文为《The EU's AI Act:A Framework for Collaborative Governance》的翻译稿,原文由Celso Cancela-Outeda发表,发表于《Internet of Things》期刊(2024年10月)。本文遵循Creative Commons Attribution 4.0 License(CC BY 4.0)协议。所有原文版权归原作者及其出版单位所有,翻译仅供个人学习、研究与交流使用,禁止用于任何商业用途。若原文涉及任何版权问题,请及时联系原作者或出版单位。

译者声明:本翻译工作仅作为学术性分享,不代表原作者或原出版单位的观点。翻译准确性由译者负责,但不保证与原文完全一致。如有任何版权争议或侵权问题,请通过论坛私信联系译者,翻译内容将在核实后立即删除。

原文信息:

标题:The EU's AI Act:A Framework for Collaborative Governance

作者:Celso Cancela-Outeda单位:Universidade de Vigo,Spain

发表平台:《Internet of Things》

年份:2024年10月

DOI:10.1016/j.iot.2024.101291

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值