构建人工智能评测平台(体系)

2022年6月1日,上海交通大学教授 李仁涵,在清华一场论坛上的分享。

主要有四点体会:

一是国际人工智能治理正在加速可操作化(为什么)

国际技术标准组织(IEEE,ISO/JTC1)2016年开始,2021年进入井喷期,比如,2021年6月出台的IEEEP7000-P7013,系统设计期间解决伦理问题的模型过程的标准。

具体方面:

数据治理领域,数据信托、公共数据开放、公民数字身份

算法治理领域,政府投资可信AI、公共部门采用可信AI

网络治理领域,间接管制

监管政策领域,监管机构、监管框架、监管基础能力

产业政策领域,中小企业、技术与场景人才培养

社会政策领域,数字技能培训、人工智能知识普及

二是AI发展带来的社会属性问题(是什么)

人工智能是一种通过机器模拟人类认知能力的技术。对它的要求也需要像人的要求那样,才能和谐相处。

随着人工智能技术的发展,社会属性问题随之而来。主要有:一是安全问题。已经发生,只要涉及到国家安全、社会安全、经济安全、个人安全等。二是伦理问题。也已经发生,主要涉及到人们的隐私、公平、透明、歧视、就业等。三是不可控或变异安全问题,尚未发生,属于非常规问题,未来如果出现,有可能会不可控,对人与社会造成伤害。

因此,需要从技术与治理两个层面应对AI带来的问题。一是发挥技术支撑作用,建立可信可控的AI。二是加强国内治理,对标国际规则。通过制定标准、规则、法律、监管和执法规范AI治理。

三是建立人工智能平台(体系)(怎么办)

建立AI评测平台(体系)有助于AI治理落地。可以先从常规安全问题和伦理问题着手,非常规安全问题(不可控或变异)可以开展前瞻性研究。具体有以下几点建议:

在研究量化的AI技术衡量指标基础上,健全AI数据标准、测评、知识产权等服务体系,打造标准化格式的数据集。

围绕产业术语、参考框架、算法模型、基础理论、关键技术以及产品和服务、行业应用、安全(可控与非可控)和伦理等等,为各领域AI技术应用提供标准、指南和实践案例等。

建立针对AI技术标准化评测方法体系(国际化),形成有效的AI监管和审核工具。

四、人工智能伦理问题能否通过特定的治理工具得到解决?在AI评测平台中如何考虑伦理问题?

短时间只能解决小部分,整个过程还是要从无序到有序。伦理是柔性的,如果有刚性的比如法律法规,技术标准等,则比较好实现。比如,招聘中,就存在歧视的问题,很难有统一的评判标准,都是公司从自身需求出发。

将来,AI评测平台或者说治理工具都是多样化的,扁平化的,不像过去由上到下贯通的。

AI评测平台对于伦理需要进一步开发研发,然后标准、法律法规同步进行。这个过程需要实践、案例、国际合作等多元主体共建。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值