人工智能安全、伦理、隐私保护等的安全相关 标准,大多仍处于研究阶段。
1.国外
IEEE正在开发人工智能伦理道德标准,规范人工智能安全设计 。2017 年 3 月, IEEE 在《IEEE 机器人与自动化》杂志发表了名为“旨在推进人工智能和自治系统的伦理设计的 IEEE 全球倡议书”,倡议通过基于伦理的设计原则和标准帮助人们避免对人工智能技术的恐惧和盲目崇拜,从而推动人工智能技术的创新。 目前,IEEE工作组正在开发IEEE P7000系列中涉及道德规范的7项伦理标准,分别对系统设计中伦理问题、自治系统透明度、系统/软件收集个人信息的伦理问题、消除算法负偏差、儿童和学生数据安全、人工智能代理等方面进行规范,包括:IEEE P7000《在系统设计中处理伦理问题的模型过程》、IEEE P7001《自治系统的透明度》、IEEE P7002《数据隐私处理》、IEEE P7003《算法偏差注意事项》、IEEE P7004《儿童和学生数据治理标准》、IEEE P7005《透明雇主数据治理标准》、IEEE P7006《个人数据人工智能代理标准》、IEEE P7007《道德驱动的机器人和自动化系统的本体标准》、IEEE P7008《机器人、智能和自治系统的伦理驱动推进标准》、IEEE P7009《自治和半自治系统的故障安全设计标准》和IEEE P7010《道德人工智能与自主系统的健康度量标准》。
ISO/IEC成立人工智能可信研究组,开展人工智能安全标准研究。
2017 年,人类未来研究所发布的《阿西洛马人工智能原则》,旨在确保AI为人类利益服务。有 1273 名人工智能 /机器人研究人员和其他 2541 人签署并支持了这些原则。呼吁全世界的人工智能领域在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全。
2019年3月,欧盟网络信息安全局(ENISA)发布了题为《建立网络安全政策发展框架——自主代理的安全和隐私考虑》的报告,旨在为欧盟成员国提供一个安全和隐私政策发展提供框架,以应对日益普及的AI应用。2019年4月,欧盟委员会发布正式版的《可信赖AI的伦理准则(Ethics Guidelines for Trustworthy AI)》,提出了实现可信赖人工智能全生命周期的框架。根据官方解释,“可信赖的人工智能”有两个必要的组成部分:一是应尊重基本人权、规章制度、核心原则及价值观;二是应在技术上安全可靠,避免因技术不足而造成无意的伤害。
国际和国外标准化组织在生物特征识别、自动驾驶等领域也开展了许多安全标准工作。以自动驾驶领域为例,2012年欧洲电信标准化协会(ETSI)发布ETSI TS 102941《智能交通系统可信和隐私管理》;2014年美国国家标准技术研究院(NIST)发布《车联网网络攻击防护安全框架》;2016年美国汽车工程师学会(SAE)发布SAE J3061《信息物理汽车系统网络安全指南》;ISO/TC22(道路车辆技术委员会)正在研制ISO/TR 15497《道路车辆——车用软件开发指南》等标准。
2.国内
我国成立国家人工智能标准化总体组与专家咨询组,加强人工智 能安全标准研制工作。目前,全国信息安全标准化技术委员会(TC260)已在生物特征识别、汽车电子、智能制造等部分人工智能技术、产品或应用安全方面开展了一些标准化工作。在生物特征识别安全方面,TC260已发布GB/T 20979-2007《信息安全技术 虹膜识别系统技术要求》标准,正在研制《基于可信环境的生物特征识别身份鉴别协议》《指纹识别系统技术要求》《网络人脸识别认证系统安全技术要求》等标准;在自动驾驶安全方面,2017年TC260立项《信息安全技术 汽车电子系统网络安全指南》标准项目,这是我国在汽车电子领域第一个网络安全国家标准;在智能制造安全方面,TC260正在研制《工业控制网络监测安全技术要求及测试评价方法》《工业控制网络安全隔离与信息交换系统安全技术要求》《工业控制系统产品信息安全通用评估准则》《工业控制系统风险评估实施指南》等工控安全标准。