检查AI偏见是人类的工作

人工智能(AI)的主要问题之一是“人工”部分。 另一个是“智能”。 尽管我们想假装我们正在设置机器人智能,以免受到人类的偏见和其他缺点的影响,但实际上,我们经常将失败的因素一次转移到AI中,一个数据集。

数据科学家汉娜·戴维斯(Hannah Davis) 指出了这一点 ,认为“数据集就是世界观”,充满了主观含义。 但是她并没有放弃AI的希望,也提供了一些方法来改善我们告知AI的数据。

[ 也在InfoWorld上:深度学习与机器学习:了解差异 ]

人工智能一直都是关于人的

摆正我们有多“数据驱动”的姿势已变得十分必要,而AI完全依赖于要使用的数据,这已成定局。 例如,机器学习算法的奇迹之一就是它们能够以多快的速度筛选大量数据以发现模式并做出相应的响应。 但是,必须对此类模型进行训练,这就是为什么数据科学家倾向于将其聚集在已建立的高质量数据集周围。

不幸的是,正如戴维斯指出的那样,这些数据集不是中立的:

[A]数据集是世界观。 它涵盖了收集和收集数据的人的世界观,无论他们是研究人员,艺术家还是公司。 它涵盖了标签商的世界观,无论标签商是手动,在不知不觉中还是通过诸如Mechanical Turk之类的第三方服务为数据添加了标签,这些服务都有其自身的人口统计学偏差。 它涵盖了组织者创建的固有分类法的世界观,这些组织在许多情况下是其动机与高质量生活直接不相容的公司。

看到问题了吗? 机器学习模型仅与提供它们的数据集一样聪明,并且这些数据集受到塑造它们的人的限制。 正如一位《卫报》编辑感叹的那样 ,这可能会导致机器更快地犯下我们相同的错误:“人工智能的承诺是,它将使机器具有从数据中发现模式的能力,并能比人类更快更好地做出决策。 。 如果他们更快地做出更糟糕的决定会怎样?”

进一步使事情复杂化的是,我们自己的错误和偏见又由机器学习模型决定。 正如Manjunath Bhat所写的那样 :“人们以数据的形式消费事实。 但是,可以以易于使用的名义对数据进行突变,转换和更改。 我们别无选择,只能生活在高度情境化的世界观的范围内。” 换句话说,我们没有清楚地看到数据。 我们的偏见塑造了我们输入到机器学习模型中的模型,这些模型又反过来塑造了可供我们使用和解释的数据。

是时候放弃希望了,我们所有人都进入这里了吗?

数据问题就是人的问题

不必要。 正如Davis继续建议的那样,我们可以做的关键一件事就是将数据集设置为过期:

机器学习数据集被视为目标。 机器学习算法和创建者都将它们视为基本事实。 而且数据集很难制作,耗时且昂贵,因此,一旦创建了数据集,它便会长期使用。 但是,当我们作为一个社会前进时,没有理由坚持过去的价值观。 同样,没有理由让未来的社会适应我们目前的状况。 我们的数据集可以并且应该具有到期日期。

在任何给定的时间点,最重要的人物,地点或事物都倾向于在我们的数据集中找到自己的方式。 (戴维斯使用ImageNet创建于2009年的示例,当搜索“手机”时该手机返回翻盖手机。)通过将数据集设置为过期,我们迫使我们的模型与社会保持同步。

[ 也在InfoWorld上:Dataops如何改善数据,分析和机器学习 ]

是麦肯锡研究提出的另一种选择,那就是将人们重新引入人工智能。 无论是通过数据预处理还是数据后处理,人类都可以介入以纠正机器学习模型。 模型中涉及的数学可能是无可挑剔的,但是增加人员(是的,有偏差)可以帮助考虑模型的结果并防止偏差不受约束地运行。

戴维斯警告说,除非我们谨慎,否则“通过收集和标记数据看似简单的事情很容易意外造成伤害。” 但是,如果格外小心,我们将获得AI的许多好处,同时最大程度地减少机器从人类身上继承的潜在偏见和其他缺点。

From: https://www.infoworld.com/article/3537968/checking-ai-bias-is-a-job-for-the-humans.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值