什么是《人工智能法案》
《人工智能法案》是欧盟的一项法规,旨在为人工智能引入一个共同的监管和法律框架,保障人类的安全、健康和基本权利,同时促进人工智能的创新和发展。该法案根据人工智能应用可能造成的风险,对其进行了不同的分类和监管,从禁止的行为、高风险系统,到有限风险和低风险的系统。该法案还建议成立欧盟人工智能委员会,以推动成员国之间的合作,并确保遵守相关法规。该法案于2021年4月21日由欧盟委员会提出,2023年6月14日获得欧盟通过,2023年12月8日与欧洲议会和欧盟成员国达成协议。
成立的背景
《人工智能法案》成立的背景是欧盟对人工智能技术应用的监管需求和挑战。欧盟认为,人工智能是一种具有变革性的技术,可以为社会和经济带来巨大的机遇和益处,但同时也可能带来风险和挑战,如对人类的安全、健康和基本权利的影响,以及对市场竞争和社会公平的威胁。因此,欧盟需要建立一个统一的人工智能法律监管框架,以确保人工智能的发展和使用符合欧盟的价值观和法治原则,同时促进人工智能的创新和竞争力。
欧盟在制定《人工智能法案》的过程中,参考了多方的意见和建议,包括人工智能高级专家小组、欧洲经济社会委员会、欧洲数据保护监察员、欧洲人权委员会、欧洲人权法院、欧洲议会、欧盟成员国、行业协会、企业、研究机构、民间社会组织等。欧盟还与国际组织和第三国进行了对话和合作,如联合国、经合组织、七国集团、二十国集团等,以寻求在人工智能治理方面的共识和协调。
欧盟的《人工智能法案》是全球范围内首个针对人工智能的综合性法规,也是欧盟在数字领域的一项重要举措,体现了欧盟在人工智能治理方面的领导力和影响力。该法案旨在为人工智能建立一个可信赖的、人本的和创新友好的环境,同时保护欧洲公民和企业的权益和利益。
法案内容概况
《人工智能法案》的具体内容包括以下几个方面:
- 算法可解释性和透明度原则:要求人工智能系统的提供者和使用者向数据主体和监管机构提供必要的信息,以确保人工智能系统的可理解性、可审查性和可问责性。
- 风险分类分级监管与算法安全评估:根据人工智能系统可能造成的风险,对其进行不同的分类和监管,从禁止的行为、高风险系统,到有限风险和低风险的系统。对于高风险系统,要求在推出市场之前进行强制性合格评估,以确保其符合相关的技术要求和伦理标准。
- 人工智能的外部问责机制:建立欧盟人工智能委员会,以推动成员国之间的合作,并确保遵守相关法规。同时,设立人工智能监管协调员,以协调和监督人工智能的监管活动。此外,还要求人工智能系统的提供者和使用者建立有效的投诉处理机制,以保护数据主体和其他利益相关者的权益。
有何重要意义
《人工智能法案》在人工智能史上有着重要的意义,因为它是全球首个针对人工智能的综合性法规,也是欧盟在数字领域的一项重要举措,体现了欧盟在人工智能治理方面的领导力和影响力。该法案旨在为人工智能建立一个可信赖的、人本的和创新友好的环境,同时保护欧洲公民和企业的权益和利益。
《人工智能法案》的出台,不仅对欧盟内部的人工智能发展和使用有着指导和约束作用,也对全球的人工智能治理和合作产生了积极的影响。该法案提出了一系列的技术要求和伦理标准,为人工智能的安全、可靠和可问责性提供了参考和借鉴。该法案还推动了欧盟与国际组织和第三国在人工智能领域的对话和协调,以寻求在人工智能治理方面的共识和协作。
《人工智能法案》的制定,也反映了欧盟对人工智能技术应用的监管需求和挑战。欧盟认为,人工智能是一种具有变革性的技术,可以为社会和经济带来巨大的机遇和益处,但同时也可能带来风险和挑战,如对人类的安全、健康和基本权利的影响,以及对市场竞争和社会公平的威胁。因此,欧盟需要建立一个统一的人工智能法律监管框架,以确保人工智能的发展和使用符合欧盟的价值观和法治原则,同时促进人工智能的创新和竞争力。
总之,《人工智能法案》是欧盟在人工智能领域的一项里程碑式的法律成果,它为全球的人工智能治理提供了一个范例和启示,也为人工智能的可持续发展和利用奠定了一个坚实的基础。
中美的行动
- 中方:目前,中国还没有出台类似欧盟《人工智能法案》的全面性法规,但已经发布了一些针对人工智能领域的管理办法和指导意见,如《生成式人工智能服务管理办法(征求意见稿)》、《新一代人工智能治理原则》²等,旨在促进人工智能技术的健康发展和规范应用,保障人工智能的安全、可靠和可控,维护公共利益和社会秩序。中国也积极参与国际人工智能治理的合作和对话,如加入全球人工智能伙伴关系组织(GPAI),推动建立多边、开放、透明的人工智能全球治理体系。
- 美方:美国目前也没有出台类似欧盟《人工智能法案》的全面性法规,但已经制定了一些人工智能相关的政策框架和战略规划,如《人工智能权利法案蓝图》、《国家人工智能研发战略规划》等,强调支持人工智能的创新和竞争力,同时保障人工智能的安全、可信和符合价值观。美国也在国会和联邦部门层面推动人工智能监管的立法和政策制定,如《国家人工智能委员会法案》、《人工智能风险管理框架》等,但目前仍处于起步阶段,尚未形成统一的监管机构和标准。美国也与国际组织和第三国进行了人工智能治理的对话和合作,如参与全球人工智能伙伴关系组织(GPAI),寻求在人工智能治理方面的共识和协调。
中美两国都在人工智能监管方面做了一些工作,但都没有推动类似欧盟《人工智能法案》的全面性法规,而是采取了更灵活和分散的方式,同时也在国际层面进行了合作和交流。