太不可思议了,AI竟然学会了重男轻女

全球电商龙头亚马逊公司,原本有一套秘密的招聘分析引擎,据知情人士透露,该团队自2014年以来一直在建立计算机程序,以审查求职者的简历,目的是机械化寻找顶尖人才。后来团队发现负责分析履历的AI(人工智能)“歧视”女性。


640?wx_fmt=jpeg


自动化是亚马逊电子商务主导地位的关键,无论是在仓库内部还是在推动定价决策。一些人说,该公司的实验性招聘工具使用人工智能为求职者提供一到五星级的评分,就像购物者对亚马逊的产品评分一样。


“每个人都想要这个神秘的功能!”,一位知情人士说。“他们真的希望它成为一个引擎,我将给你100个简历,它会筛选出前5名,我们会雇用那些精选出来的简历。”


但到2015年,该公司意识到其新系统并未以性别中立的方式评定软件开发人员职位和其他技术职位的候选人。


这是因为亚马逊的计算机模型经过培训,可以通过观察在10年内提交给公司的简历中的模式来审查申请人。大多数来自男性,反映了整个科技行业的男性主导地位。 


640?wx_fmt=jpeg


实际上,亚马逊的系统自学了男性候选人更可取。据知情人士透露,它对“妇女”这个词的简历进行了处罚,就像“女子国际象棋俱乐部队长”一样。它还降低了两所全女子大学的毕业生的评级。该知情人士并没有说明学校的名称。


亚马逊编辑了这些程序,使其对这些特定术语保持中立。但人们说,这并不能保证这些机器不会设计其他方式来对可能具有歧视性的候选人进行分类。


据不愿透露姓名的人士透露,这家西雅图公司最终在去年年初解散了该团队,因为高管们对这个项目失去了希望。他们说,亚马逊的招聘人员在搜索新员工时会查看该工具产生的建议,但并不完全依赖这些排名。


亚马逊拒绝评论该技术的挑战,但表示该工具“从未被亚马逊招聘人员用于评估候选人”,该公司没有进一步详细说明。招聘人员查看招聘引擎提出的建议并不存在争议。


路透社首次报道该公司的实验,提供了机器学习局限性的案例研究。它还为越来越多的大型公司提供了一个教训,包括希尔顿全球控股公司(HLT.N)和高盛集团公司(GS.N),这些公司正在寻求自动化部分招聘流程。


根据人才软件公司CareerBuilder 2017年的一项调查显示,约55%的美国人力资源经理表示,未来五年内,人工智能(AI)将成为他们工作的常规部分。


雇主长期以来一直梦想利用技术扩大招聘网络,减少对招聘人员主观意见的依赖。但是,在卡内基梅隆大学教授机器学习的Nihar Shah等计算机科学家表示,仍有许多工作要做。


“如何确保算法公平,如何确保算法真正可解释和解释,这仍然相当遥远。”,Nihar Shah表示


亚马逊的实验始于全球最大在线零售商的关键时刻。由于低成本计算能力的激增,机器学习在技术领域越来越受欢迎。亚马逊的人力资源部门即将开始招聘:监管机构的文件显示,自2015年6月以来,该公司的全球员工人数增加了两倍多,达到575,700名员工。


因此,它在亚马逊的爱丁堡工程中心建立了一个团队,该团队已发展到十几人。据知情人士透露,他们的目标是开发人工智能,可以快速抓取网络并发现值得招募的候选人。


该小组创建了500个专注于特定工作职能和位置的计算机模型。他们教会每个人认识出过去候选人简历中出现的约50,000个条款。据知情人士说,这些算法对IT应用程序中常见的技能几乎没有重要意义,例如编写各种计算机代码的能力。


一位知情人士表示,相反,这项技术有利于那些用男性工程师简历中更常见的动词描述自己的候选人,例如“被执行”和“被捕”。


性别偏见不是唯一的问题。人们说,支持模特判断的数据问题意味着不合格的候选人经常被推荐用于各种工作。他们说,随着技术几乎随机返回结果,亚马逊关闭了该项目。


问题还是治愈?

其他公司正在向前发展,强调雇主迫切需要利用人工智能进行招聘。


盐湖城附近的一家创业公司HireVue的首席执行官凯文帕克表示,自动化正在帮助企业超越他们长期依赖的招聘网络。他的公司在视频访谈中分析候选人的言语和面部表情,以减少对简历的依赖。


“你不会回到同样的旧地方; 你不会回到常春藤盟校。“,帕克说。他的公司客户包括联合利华PLC(ULVR.L)和希尔顿。


该公司表示,高盛已经创建了自己的简历分析工具,试图将候选人与他们认为“最合适”的部门进行匹配。


微软公司(MSFT.O)LinkedIn是全球最大的专业网络,它已经走得更远。它根据候选人在其网站上发布的职位发布情况,为雇主提供算法排名。


“我当然不会相信任何人工智能系统能够独立做出招聘决定。”,他说。“这项技术还没有准备好。”


一些活动家表示,他们担心人工智能的透明度。美国公民自由联盟目前正在挑战一项法律,允许对试用招聘网站的歧视算法的研究人员和记者进行刑事起诉。


我们越来越关注算法公平问题!”,ACLU种族司法项目的律师Rachel Goodman说。


尽管如此,古德曼和人工智能的其他批评者承认,通过自动招聘起诉雇主可能非常困难:求职者可能永远不会知道它正被使用。


至于亚马逊,该公司设法挽救了从失败的AI实验中学到的一些东西。据熟悉该项目的人士称,它现在使用招聘引擎的“大量淡化版本”来帮助完成一些基本工作,包括从数据库中剔除重复的候选人资料。


当有人在提及自己就业中因性别而遭受不平等待遇时,性别歧视在另一些人眼里,更多还意味着生男还是生女。此外,我们也听到了一些角度不一样的观点:有人说,性别歧视是一个很普遍的存在,不仅存在于女性,也包括男性。例如男生想学学前教育被家庭以这是女性职业为由反对;还也有位男性受访者表示,性别歧视里还包括自我歧视,例如一些女性会习惯利用自身的性别示弱,认为应该受到更多的照顾等。而有位女性受访者的观点与这也有所呼应:“我工作中遇到的女性群体,都没有因为性别的原因受到歧视,反而,她们的自立、自强所带来的是与男性之间公平的竞争和相处。”


“我身边有很多很优秀也很上进的女生,我希望她们的努力能得到她们应得的回报与尊重。”,尽管男性也有如此认知,但对性别歧视是否有积极发展,更多人持保守态度,即不认为有突破,甚至有的表示形势只会更加糟糕。“,我们目前所处的社会是一个矛盾不断加剧的社会,而那些在政治上经济上的资源紧缩表现在社会层面时,两性冲突无疑会走上风口浪尖。”




640?wx_fmt=jpeg

文章来源:路透社

640?wx_fmt=jpeg

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
提供的源码资源涵盖了Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 适合毕业设计、课程设计作业。这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。 所有源码均经过严格测试,可以直接运行,可以放心下载使用。有任何使用问题欢迎随时与博主沟通,第一时间进行解答!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值