教学算法伦理学需要开放的方法

人工智能(AI)工具和其他算法系统越来越多地影响着我们周围的社会,政治和经济结构。 同时,作为这种影响的一部分,这些系统越来越多地用于为决策者和其他机构领导者提供决策依据或直接做出决策。

这一趋势可能对人类产生深远的积极影响。 例如,考虑一下AI应用在医学诊断中已被证明具有革命性的方式。 但是,这些系统所带来的好处和带来的好处也是严重的风险,因为以这种方式越来越多地不受限制地使用算法会冒着危险地扩大不平等并把权力集中在少数人手中的危险。 其他相关问题也可能随之而来,例如在缺乏消费者保护的情况下个人信息的商品化程度越来越高,或者数字监视基础设施的建设往往不反对已经被边缘化或被压迫的人口。

开放式教育是通过算法打击个人代理和权力的危险侵害的最有希望的机制之一。 受过这些道德技术问题教育的政策制定者和顾问可以做出明智的监管决策,技术专家可以提高他们对其设计影响的认识,公民和消费者可以充分了解算法系统如何影响他们的日常生活。 在知识就是力量的地方,教育可以提供知识。

二十一世纪的教育工作者既有责任,也有机会以包容性和跨学科的方式来增强这种对技术伦理的学习。 至关重要的是,这种教育必须是开放的:遵循透明性,包容性,适应性,协作性和社区性等原则。 政府监管,大型科技组织内部更大的道德压力以及其他解决方案不能单独采取行动。 教育(尤其是开放式教育)对于应对因与算法的交互作用和依赖性增加而带来的这些更广泛的挑战至关重要。

今天的状况

算法和AI工具已经在改变我们机构决策权的集中度和同质性。 例如, 美国的法官正在使用所谓的风险评估算法(RAA)来协助其围绕监狱判决的决策。 这些自动化系统的复杂程度从基本的输入函数输出公式到使用深度学习的神经网络不等,它将掌握个人的概况并对该人进行某种形式的风险评估。 这可能是该人再次犯罪的可能性,也可能是他们倾向于暴力犯罪行为的程度。 从本质上讲,其主要目的是该算法减少了案卷上很多案件的法官的工作量,并缩短了读取个人犯罪记录的时间。 这样一种推论,无论是否明确地,都基于数学公式和算法是客观的这一观念。

但是,当这些系统以人的面值从我们世界中获取数据(例如,一个人之前被捕的次数)并将其用作诸如“再犯可能性”之类的输出的代理时,就会将不公平性引入算法决策中。 正如ProPublica在2016年关于COMPAS的故事中揭露的那样,这是一种RAA,用于协助美国法院判刑,这种偏见体现在对已经边缘化群体的不同影响上。 COMPAS可能会以接近白人被告人两倍的比率错误地将黑人被告人标记为未来罪犯,而且白人被告人被错误地标记为低风险,而不是黑人被告人。 由于所使用的数据(例如,先前被捕的次数)在不同的人口统计数据中没有(而且不幸的是,在不久的将来不会)具有相同的值,因此这会在决策机器中带来系统偏见的风险。 同样值得注意的是,在此特定情况下使用的COMPAS系统是由一家营利性公司制作的,该公司可能没有动力主动披露或解决此问题。

受过这些道德技术问题教育的政策制定者和顾问可以做出明智的监管决策,技术专家可以提高他们对其设计影响的认识,公民和消费者可以充分了解算法系统如何影响他们的日常生活。

在这里,就像在公共和私人机构中使用算法的其他许多用途一样( 福利分配无家可归者的住房分配简历审查新闻提要策划等等),从某种意义上讲,决策的制定要比现有的更加集中。情况更广泛。 再以法官为例。 司法机构已经包括了为数众多的法官,为集体团体做出决定,而集体团体的决定要大很多倍,具体取决于他们所服务的法院的管辖权。 然而,当许多来自不同法院的法官依靠这种单一的COMPAS系统在监狱判决中提供决策帮助时(通常会误入算法客观性神话 ,因为他们没有受到过其他教育),因此存在决策影响的风险,从某种意义上讲,它甚至进一步集中在构建该算法的少数人的手中。 (在不久的将来会发生什么,当法官不仅使用这种系统作为风险或累犯的参考点,而且更具体地获得确切的徒刑建议时?)

那些设计这些技术的群体通常在文化和种族上都是同质的,被识别为白人和男性,这一事实使情况更加恶化。 尽管很难获得一致且准确的估计,但是许多报告表明,“技术领域”(以及通常在技术角色,尤其是执行角色中)的多样性非常糟糕 。 而且,与任何机构一样,这里的决策将更加适合看起来更像决策者的人群。 这可能会影响从技术本身的构造和组成到支撑其使用的条款和服务的所有方面。

同样,这些问题并不是算法所独有的,就像在其他情况下一样,这种集中且同质的决策也适用于有偏见和/或不公平的决策,这次嵌入了代码: 性别歧视招聘算法福利分配失灵系统加强种族和性别刻板印象的搜索引擎等。 算法本身会发生故障-对已经边缘化的群体产生不同的影响-因为没有人会以其他方式影响算法设计过程。

期待

展望未来,存在着很大的风险,即机构决策将进一步集中在开发算法的开发人员中,这些算法对许多人而言(尤其是围绕公共政策)对机构决策的影响越来越大。 即使决策机构在技术和其他地方变得更加多元化和包容性,而这也是一个大的时候 ,通过算法和他们的开发仍然存在集中决策的-the问题。 当然,这不会影响所有机构,并且对不同机构的影响以及由此产生的政策结果在每种情况下都将有所不同。 但这是我们要走的路。

乔伊·布拉姆维尼(Joy Buolamwini)在《纽约时报》上写道, 非常直接的意义上说,人工智能的设计和使用不受控制,势必会加剧社会不平等。 在更广泛的范围内,正如尤瓦尔·诺亚·哈拉里(Yuval Noah Harari)在《大西洋月刊》中雄辩地强调的那样,没有正确的检查和设计原则的当代数字技术很可能会侵蚀我们所知的人类代理和自由民主的结构。 然而,两位作者和其他许多人都同意:还为时不晚。 我们还没有跨过一个门槛(即使有的话),在这个门槛下,算法在世界上已经根深蒂固,以至于我们无法改变算法的设计,使用或监管方式。 相反,如今,防止自动化系统加剧社会不平等并拒绝人员代理的行动肯定是可能的。

通过开放式道德技术教育的解决方案

对学生进行算法活动的强大性和普遍性的教育,对思想开放的教师和技术伦理学家既是责任,也是机遇。

对学生进行算法活动的强大性和普遍性的教育,对思想开放的教师和技术伦理学家既是责任,也是机遇。 这项工作应既包含开放的组织价值(透明度,包容性,适应性,协作性和社区性),又应将它们嵌入旨在倡导道德的教育计划和材料中,以解决AI应用和其他算法系统对我们世界的潜在危险影响。

围绕各种算法的保密性无疑导致了我们今天看到的许多问题:对不同群体的不同影响(例如在监狱判刑中使用的风险评估算法),再加上缺乏关于这些算法的设计方式的公开且易于获取的信息并部署。 由于有关系统设计的信息通常是隐藏的或其他不可用的,因此识别和理解这些系统的负面影响更加困难。 因此,本着与这些事实作斗争的精神,技术教育应该具有透明性 ,其中课程作业中所包含的内容以及课程作业的结构是可以接受的。 在这样一个新兴领域对教育材料的反馈只会加强此类举措。

这些发展中的伦理技术教育课程也应该是透明的关于下列设计阶段的一切。 与从事道德技术教育这些问题的其他人分享失败成功的知识很重要:什么有效? 什么没? 跨越STEM-人文学科的课程有多好? 这些问题与不同背景的学生之间的相关性如何? 材料的技术性如何? 哪些技术引起了最多的讨论? 哪种购买方式(管理员,学生等)对于实施此课程最重要? 这些问题的答案有可能帮助其他教育工作者解决这些问题,更不用说政府,工业和其他部门的教育工作者,他们也正在努力为其选民开展道德技术教育。 透明度是在此处接受的有力原则。

伦理技术教育也应包括包容性 。 如今,算法设计和部署(如前所述)的问题之一是制定设计和部署决策的小组的规模较小且相对同质。 普通人群中很少有人有投入或影响,而那些具有普通意见或影响的人通常不能代表普通人群。 结果,几乎固有地存在着一种隐式和/或显式的愿望,即根据与设计者共享经验的人的需求来定制这些算法,而不是设计,甚至不针对那些圈子之外的人的需求进行设计。

因此,对技术伦理的教育不应仅仅反省主流的关于技术的叙述,例如需要创新,缺乏监管,接受某些东西在此过程中“破裂”,而是要进入同质小团体。 相反,道德技术教育的设计和维护应该在设计,内容和结构上追求并包含包容性。 例如,要了解风险评估算法对囚犯的影响,仅包括白人系统设计者的观点是无济于事的; 受影响者的观点也应予以考虑(例如,在这种情况下,“风险”得分被算法严重错误计算的黑人)。 同样,仅采用技术人员的观点就排除了从社会学到新闻业的专业观点,因此错过了对技术的重要观点。 因此,更具包容性的课程设计和维护可能不仅更公平,而且更好 —更全面地评估算法对不同群体的影响。 如果我们要应对许多算法系统所威胁的集中且更加同质的决策,这至关重要。

使用开放组织原则的最后一个例子, 适应性对于那些寻求对道德技术问题进行教育的人来说至关重要。 技术正在以惊人的速度发展。 特别是在事先很少进行测试和监督的情况下,通常部署人工智能应用程序和其他算法。 为了确保道德高科技教育不应该成为Swift过时,以确保它仍然可以访问听上去很像那些具有不同程度的知识,必须有协作流程,Swift转动的伦理技术教育,包括新的技术,这些技术的新的实现,以及新这些技术的影响。 管理员,学生和其他在道德技术教育方面有利益的人提供的强有力的反馈循环可以在这里提供帮助。 以类似的方式,与从事技术问题的人员进行持续对话,并不断进行相应的课程迭代,可以满足保持这种教育潮流所需的成长思维。 随着算法公平性,数据保密性和其他问题的发展,对道德技术的教育应作出相应的React。

当然,仅开放教育是不够的。 应对人工智能和其他算法在社会中日益重要的角色进行风险管理的一种包容性和多元化方法,即积极参与并利用利益相关者(从公民到监管机构再到技术开发人员)的各种投入,这种方法应仅包括教育一个组成部分。

同时,我们不应忘记由于越来越多地使用和依赖AI和其他算法而可能产生的潜在积极影响。 从技术上讲,我们应该追求并拥抱实际上可以设计系统的方式,同时要考虑到公平性,隐私保护,安全性,透明度和其他以人为本的设计原则。 但是,随着我们不加限制地使用算法系统而走上危险的道路,开放式道德技术教育是教育在未来世界中声名显赫的重要途径。

翻译自: https://opensource.com/open-organization/19/6/future-ethical-tech-edu-open

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值