对人工智能常见的误解有哪些_关于AI的道德和偏见的4种误解

对人工智能常见的误解有哪些

在8月的PyBay 2019上,我将继续我在PyBay 2018上开始的关于道德在我们正在发展的人工智能(AI)中的重要性的对话,尤其是随着道德在我们的日常生活中越来越受到影响。 在去年的主题演讲中,我探讨了我们如何忽略人类在AI未来中扮演的重要角色。

关于技术的道德讨论越来越普遍,我是从我的初恋数学开始的。 数学通常给我们一种确定性,但是我发现我工作中更具挑战性的人类部分为我提供了改善世界的最大潜力。 如果您对更多技术方面感到好奇,请参阅以下汇总的资源清单:

长期以来,人们对各种类型和技术的影响的误解一直很普遍,但随着AI系统在我们的日常生活中日渐流行和影响越来越大,这些误解正越来越严重。 在本文中,我将介绍一些关于AI伦理的常见误解,然后提供一些健康的原则,我们可以使用这些原则使AI与我们一起走向更美好的未来。

1.误解:工程师仅对代码负责

有一种想法是,工程师只对他们的代码负责,而不是对代码的使用方式或代码产生的质量负责。 问题在于,在涉及软件和各种管理流程的复杂,现实世界的系统中,通常没有人对结果负责。 例如,如The Verge所报道,存在错误的软件程序会减少对包括脑瘫和糖尿病在内的严重残疾人的基本医疗服务。 在这种情况下,算法的创建者指责州官员的程序,州官员可以责怪实施该软件的团队,依此类推,而没有人负责。

没有人觉得负责任,没有责任心的系统不会带来良好的结果。 我不会为了指责而承担责任,而是因为我想帮助确保取得良好的结果。 我们的代码经常与非常混乱的现实系统交互,并且可能以不希望有的方式意外地放大了这些问题。

2.误解:人与计算机可以互换

人们经常谈论人类和计算机决策者,就好像它们是即插即用可互换的,或者具有构建机器以复制人类所做的事情的思维方式。 但是,人类和计算机在实践中通常以不同的方式使用。

一个有力的例子与AI的价值主张有关,即公司可以使用AI扩展服务的想法,如果人类完成所有工作,这将是负担不起的。 无论是更快的健康保险注册速度,还是在消费者网站上推荐商品,AI都可以使我们的生活更简单,服务提供商的生活更便宜。 这里隐藏的特洛伊木马程序可以以这样的方式实施算法:结果是死胡同,没有上诉程序,也没有发现或解决错误的方法。 如果根据算法无解释或无追索权地将某人开除工作拒绝其所需的医疗保健服务,这将是非常有害的。

即使我们将人员重新加入方程式,人们仍然处于危险之中。 研究表明,如果可以选择覆盖有害的AI结论,则人们可能会认为代码是客观的或没有错误的,并且不愿覆盖“系统”。 在许多情况下,使用AI的原因是价格便宜,而不是因为它更准确或可以带来更好的结果。 正如Cathy O'Neil所说,我们正在创建一个世界,其中“特权由人处理;穷人由算法处理”。

另一个角度认为,人与计算机彼此矛盾。 在像下棋或围棋比赛这样的故事中,这很有趣,但更好的问题是弄清楚机器如何增强和补充人类目标。 最终,算法是由人类设计的,并着眼于人类的目标。

3.误解:我们不能规范科技行业

我经常听到,高科技行业很难监管,监管也不会奏效。 这让我想起了有关汽车早期的99%不可见播客 。 汽车问世时,没有速度限制,驾驶执照或酒后驾车法规,它们由大量锋利的金属和可破碎的玻璃制成。 当时,使汽车更安全的想法是艰难的讨论。 人们会认为汽车本身就是危险的,因为驾驶汽车的人是危险的,而这种危险与车辆无关。 当时,使汽车更安全的想法是一场艰苦的讨论,汽车公司强烈反对任何讨论安全性的人。 人们争辩说,汽车本质上是危险的,因为驾驶汽车的人是危险的,而危险与车辆无关。 消费者安全倡导者工作了数十年,以改变围绕汽车安全的观念和法律,解决了许多先前的问题。

考虑一个有效地促进行动的案例研究:人们警告一家大型社交媒体公司的高管多年(始于2013年),警告他们如何利用其平台煽动缅甸的种族暴力,高管几乎没有采取任何行动。 联合国在2018年确定该网站在缅甸大屠杀中起了“决定性作用”之后,该公司表示,他们将雇用“数十”名额外的主持人。 与此形成鲜明对比的是,德国通过了一项仇恨言论法,并对其施加了重大的财务罚款。该社交媒体网站在不到一年的时间内雇用了1,200名主持人,以免被罚款。 对可能的罚款与种族灭绝的React,不同的数量级可能会为监管的潜在效力提供见识。

4.误解:技术只是关于优化指标

人们很容易想到我们在技术方面的工作就是优化指标并响应消费者需求。

“推荐系统和协作过滤永远都不是中立的;当他们决定向您展示什么时,它们总是将一个视频,大头钉或群组与另一个视频,大头针或群组进行排名。”
–Renee Diresta, 有线

指标只是我们真正关心的事情的代名词,过分强调指标可能会导致意想不到的后果。 在优化观看时间时,发现一个受欢迎的视频网站正在推送最具争议性,以阴谋为中心的视频,因为它们是该网站上观看时间最长的人。 例如,仅基于度量的角度导致对草剪评论感兴趣的人被推荐为极端,白人至上主义的阴谋论。

我们不仅可以选择针对指标进行优化,还可以考虑预期的结果。 埃文·埃斯托拉(Evan Estola)在2016年机器学习会议的演讲《 建议系统 变得糟糕》中 ,在Meetup.com上讨论了他的团队的情况。 Meetup的数据显示,参加以技术为重点的聚会的女性人数少于男性。 他们可能会创建一种算法,向女性推荐更少的技术聚会,这会导致更少的女性了解技术聚会,进一步减少出席人数,然后向女性推荐更少的技术聚会。 这种反馈循环将导致更少的女性参加科技活动。 Meetup决定在创建反馈循环之前使其短路。

技术影响着世界,并使我们接触到新的想法。 我们需要更多地考虑我们所代表的价值观以及我们想要构建的更广泛的系统,而不是仅仅针对指标进行优化。

更好的AI原则

我认同这些误解,因此我们可以超越它们,使世界变得更美好。 我们可以通过合乎道德的使用AI来改善我们的世界,牢记以下想法,以创建AI更好的未来:

  • 我们有责任考虑整个系统。
  • 我们需要与领域专家以及受AI影响的专家合作。
  • 我们必须找到方法来利用计算机和人类的优势,并将它们融合在一起以获得最佳结果。
  • 我们必须承认,监管既有可能,又在过去具有影响力。
  • 我们不能害怕棘手的问题。
  • 我们可以选择针对世界的影响进行优化,而不仅仅是针对指标。

通过将这些概念纳入我们的工作和日常生活中,我们可以使每个人的未来变得更美好。


雷切尔·托马斯(Rachel Thomas)将于8月17日至18日在旧金山的PyBay 2019展示 关于算法偏向的具体 知识 购买门票时,请使用OpenSource35折扣代码。

翻译自: https://opensource.com/article/19/8/4-misconceptions-ethics-and-bias-ai

对人工智能常见的误解有哪些

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值