根据Gartner Research的数据,从现在到2022年, 由于数据,算法或负责管理它们的团队的偏见 ,有85%的AI项目将交付错误的结果 。 此外,盖洛普民意调查机构报告, 目前有85%的美国人至少使用一种由AI驱动的设备,程序或服务 。
我从1980年代后期开始关注AI系统时就已经知道这种偏见。 事实是,人们对AI系统进行编程和教学,因此那些AI系统将倾向于具有教他们的人的先天偏见。
使用云托管昂贵的AI系统实际上使情况变得更糟,因为可以负担得起AI的公司数量有所增加,但是拥有扎实的AI技能的人数却没有以相同的速度增长。 因此,除了在更广泛使用的AI工具中存在先天的偏见之外,人才的缺乏还意味着在一段时间内知识库的构建方式会出现更多错误。
这些偏见是什么样的? 女人可能会发现自己正在坚持到底。 那是因为男人从事大部分AI开发和教学,所以他们的有意识或无意识偏见得到了编码。 例如,2015年的一项研究显示,在Google图片搜索“ CEO”中,尽管其中有27%的美国首席执行官是女性,但其中显示的人中只有11%是女性。 (虽然很容易在Google上选择,但它很快就纠正了此类问题。)
公司将不得不为这些内置的AI偏见付费。 例如,他们将需要吸收不向足够多的女性提供贷款的利润损失,因为这些女性约占市场的55%。 同样,至少是不良业报,这将使您在最坏的情况下陷入合法的困境。
关于这个还能做什么? 现实情况是,有偏见的AI系统更多的是规范而不是例外。 因此,IT需要认识到存在偏差或可能存在偏差,并采取措施限制损害。 幸运的是,出现了各种工具来帮助您发现基于AI的偏见。
尽管如此,您仍必须警惕隐藏的偏见,并采取措施将危害降至最低。