8月1日,欧盟《人工智能法案》正式开始实施。这标志着欧盟在全面监管人工智能应用方面迈出了新的一步。
作为全球首部全面的人工智能监管法规,该法案的实施对全球企业,尤其是想在欧盟境内运营或与欧盟有业务往来的公司来说,将产生重要影响。
该法案的实施对于全球企业,特别是中国“出海”企业提出了新的合规挑战。中国企业应密切关注该法案的动态,及时评估自身在人工智能供应链中的定位和风险,并制定相应的合规策略和措施。
法案诞生过程
2021年4月,欧盟《人工智能法案》首次提出;
2023年12月,达成政治协议;
2024年7月12日,该法案在欧盟官方公报上发布;
2024年8月1日,该法案正式生效。
主要目的
该法案旨在规范欧盟内部人工智能的开发和使用,改善内部市场的运作,促进以人为本且值得信赖的人工智能的普及。
同时,确保在欧盟内防止人工智能系统的有害影响,提供高水平的健康、安全、基本权利(包括民主、法治和环境保护)的保障,并支持创新。
适用范围
该法案适用于人工智能系统和通用人工智能(GPAI)模型,包括在欧盟市场投放的人工智能技术和系统,或向欧盟市场提供人工智能产品或服务的供应商、部署者、进口商、分销商、产品制造商、授权代表等。
该法案采用“长臂管辖”原则,无论上述主体是否位于欧盟境内,都有可能受制于该法案。
风险分类与监管要求
该法案根据人工智能系统的风险等级进行分类,并提出了不同的监管要求。风险等级分为四个等级——不可接受风险、高风险、有限风险、最小风险。
对于“最小风险”等级的人工智能系统,法律允许企业自由使用,无需履行额外的法律义务;对于“高风险”和“有限风险”等级的人工智能系统,企业需要履行特定的透明度义务和其他合规要求。
处罚措施
违反《人工智能法案》,将被处以高额罚款,最高可达3500万欧元或上一财政年度企业全球全年总营业额的7%。
为了推动人工智能领域的执法行动,欧盟和各个成员国将分别设立监管执法机构,实施、监测和监督人工智能系统的开发和利用。
法案实施时间节点
2025年2月2日,开始实施总则和关于不可接受风险AI系统的禁令。
2025年8月2日,开始实施高风险AI系统的部分章节、通用人工智能模型、成员国任命主管当局等章节。
2026年2月2日,开始实施投放市场后监管法案。
2027年8月2日,附件三中未规定但旨在用作产品安全组件的高风险人工智能系统相关义务开始实施。
往/期/回/顾