算法规制的路径创新:论我国算法审计制度的构建

摘 要:算法是数字经济发展和数字社会运转的核心要素,算法异化不仅可能损害公共利益,也将提高数字社会的运行风险。算法审计是有力规范和监督算法权力、防范数字风险、控制算法异化的制度工具,在全球得到认可和适用。算法审计是技术审计,其审查对象包括算法模型、数据及与之有关的设计开发运行活动。算法审计是合规审计,其目的是检测算法价值观是否符合法律要求,从而推动算法向善。算法审计是风险审计,其以风险为导向,对不同风险等级的算法需规定不同的审计要求。我国应该制定《算法规制法》,将算法审计纳入算法问责框架,对算法审计的实施主体、实施条件、实施机制、实施后果进行规定。

关键词:算法审计;算法问责;算法异化;算法价值观;算法规制法

从智能投顾到电子商务,从网络经济到智能制造,从商业到政府自动化决策,算法的运用越来越广泛和深入。算法作为智能化时代的关键技术,在提升经营管理效率,为社会赋能的同时,也可能产生算法歧视等异化问题,有损社会公平正义,并成为人工智能时代的新型风险源。2016年,Beauty AI公司举行了一次由机器人作为裁判的选美比赛,来自100多个国家的6000多人参加,评判结果获胜者几乎都是白人,少数为亚洲人,没有一位黑色人种。

如何保障算法运行结果的公正,成为国际社会和世界各国重点关注的问题。欧盟委员会制定的《通用数据保护条例》(GDPR)第35条规定数据保护影响评估制度,列明自动化处理(算法)过程必须对数据主体的权利与自由带来的风险进行评估,以及《人工智能法案》(Artificial Intelligence Act)第43、47、48条进一步细化的数据评估规则,规定合规评估制度。美国提起的《算法问责法案》(Algorithmic Accountability Act of 2019)是专门针对自动决策影响评估和数据保护影响评估而出台的,其指出自动决策系统影响评估是指对自动化决策系统和自动决策系统开发过程(包括自动化决策系统的设计和培训数据)进行评估的研究,以评估对准确性、公平性、偏见、歧视、隐私和安全的影响;美国《算法公平法案》(Algorithmic Fairness Act)对算法审计体制予以了规定,并强调增加可审计性。加拿大公布的《自动化决策指令》(Directive on Automated Decision-Making)对算法提出一系列的规制要求,其中都提及了算法审计的问题。在欧盟,由芬兰、德国、荷兰、挪威和英国最高审计机构共同出台的《机器学习算法审计白皮书》(Auditing machine learning algorithms:A white paper for public auditors)(以下简称《算法审计白皮书》),为GDPR下的算法审计活动提供指引。[1]联合国教科文组织在2021年公布的《人工智能伦理问题建议书》第59条中,明确提出会员国应考虑设立有关体制机制负责人工智能伦理影响评估、审计和持续监测工作,确保对于人工智能系统的伦理指导。[2]

我国出台的《个人信息保护法》第五十四条规定:“个人信息处理者应当定期对其处理个人信息遵守法律、行政法规的情况进行合规审计”,第六十四条也提及“委托专业机构对其个人信息处理活动进行合规审计”。根据个人信息保护法对于自动化决策(自动化决策是算法技术应用的一种方式,本文所指自动化决策即为算法,另外,算法亦是人工智能决策处理中枢,因此文中人工智能与算法亦属同等概念)的定义:“自动化决策,是指通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、信用状况等,并进行决策的活动。(第七十三条)”算法对于信息的处理属于个人信息处理者信息处理活动之一。尽管我国《个人信息保护法》对个人信息的定义采用了“保护记录”模式,即强调信息构成记录但不区分是否被自动化处理,但从个人信息保护制度发展的沿革来看,其源于应对自动化技术的威胁,“经自动化处理”可谓是个人信息早期的构成要素之一[3],自动化处理下的个人信息保护是《个人信息保护法》规制的重点(关于个人信息合规审计与算法审计之间的关系,下文将进一步进行讨论)。

这表明我国基本确立了对于算法的审计制度,因此,算法审计已然成为法律要求。目前,学界对于算法审计制度构建缺乏充分的讨论。算法审计有何制度价值?什么是算法审计?如何实施?成为亟待解决的法律课题。据此,从价值论出发,阐明设置算法审计制度的理由,并从算法审计对象、目的、作用范围出发厘清算法审计制度的内涵,最后,提出构建我国算法审计模式的制度路径。

一、算法审计的制度价值:设置算法审计制度的理据

算法审计有何制度价值?在论述算法审计的规则构建之前,有必要对“为什么要设立算法审计制度”进行规范分析,明确算法审计制度设立的现实意义。

(一)规范和监督算法权力,维护数据正义

算法审计是监督算法权力的运行、维护数字正义的有力武器。迈克尔•曼(Michael E. Mann)在《社会权力的来源》一书中指出,权力是通过支配人们的环境以追逐和达到目标的能力。[4]网络社会由一个个智能平台系统组成,算法成为网络社会的“法律”,支配着人们的环境,并且能够通过这种力量影响网络“共同体”,从而达到自己的目的。近年来,越来越多的学者意识到算法对网络世界的“支配”,以及这种支配力量会延展至现实社会,学者将这种力量命名为“算法权力”[5,6]。信息革命是人类从物理世界向网络世界的一次“大迁移”,但数字社会中权力行使方是算法以及算法背后的操控者,数字权贵可以为了欲望和敛财罔顾他人尊严、自由甚至生命,我国就曾被爆出外卖平台滥用算法压榨骑手的事件。尤瓦尔•赫拉利(Yuval N. Harari)在其书《未来简史》中提到,由于人们无力处理海量数据,逐渐将权力交给算法,随着算法不断占领市场,财富和权力可能会集中向拥有强大算法的技术精英手中,造成前所未有的社会和政治不平等。[7]算法异化将会对数字社会的正义带来极大的危害,有必要把算法权力关在法治的“笼子”里。

一般而言,为制约权力的肆意使用,法律会通过设置“问责制”(accountability)的方式来使得权力的拥有者正当行使职责,对公民负责。面对算法产生的权力,各国立法机关也提出了算法问责制(algorithmic accountability)以保障算法权力的正当行使。算法问责包括明确对算法的基本要求,并通过算法影响评估(algorithmic impact assessmen)、算法审计(algorithmic audit)等活动实现监督,确定算法违法后果及救济途径等。学者将算法问责制分为:①原则和指南;②禁令和暂停;③公共透明度;④影响评估;⑤审计和监管检查;⑥外部/独立监督机构;⑦听证权和上诉权;⑧采购条件。[8]如何实现算法问责成为需要解决的问题,欧盟的GDPR以及美国的《算法问责法案》均提到了透明度、认证等事前监督检查的方式,而算法审计无疑是最有效的监管措施之一。

正如为解决监督政府是否规范执行预算而实施政府审计一样,算法审计也是通过有胜任能力的专业人员对算法进行检测监督,及时发现算法中的问题,能够预防算法主体(本文的算法主体即指算法的设计者或者运行方,不包括消费者、用户)滥用算法,以确保算法权力被正当使用,维护数字社会的正义。

(二)防范数字风险,应对算法权力的弥散性

德国社会学家乌尔里希•贝克(Ulrich Beck)在其著作中提出风险社会的概念,科学带来文明的同时创造了风险,而且这种风险是全球性、系统性的风险,这种风险使得人类日益“生活在文明的火山口上”。[9]风险社会与技术发展相伴而生,技术的不确定性对人类的生活乃至生存都产生巨大的威胁,因此技术的规制成为数字经济发展过程当中必须解决的难题。[10]技术的规制需要按照找寻技术的特征,对症下药。

算法产生的风险源于算法权力的异化,这种异化表现为算法技术以不正当的价值观行使权力。因此对于算法的风险治理则需要把握算法行使权力的方式,与传统的政治学意义上自上而下的操纵和支配权力有所不同,算法权力通常呈现网络结构化和弥散性的特征。[6]弥散性权力与权威性权力源自迈克尔•曼对权力类型的区分,与命令和服从的权威性权力不同,弥散性权力是一种“无所不在的权力”,以一种更加本能的、无意识的、分散的方式分布于整个人口之中。[11]

算法通过隐蔽的、潜移默化的形式来实现权力的“运行”,导致被算法“支配”的用户难以直接感知到算法对其的危害。算法使用带来的信息茧房效

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

罗思付之技术屋

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值