AI Now:比人脸识别更可怕的黑科技---情绪识别

AI Now:比人脸识别更可怕的黑科技—情绪识别

如今,面部识别已经迅速从一项新奇技术转变为生活中的事实。全世界数百万人在机场、iphones 或 facebook 上扫描自己的面容。但纽约大学 AI Now Institute的研究人员不仅对无处不在的面部识别发出了警告, 而且对所谓的“情绪识别”更发出了强烈的质疑。这种技术声称它可以在你鼻子的形状、嘴的轮廓, 和你的微笑的方式里找到隐藏的意义。如果这听起来像是19世纪的陈旧观念, 那是因为从某种意义上确实如此。

这个刚刚出炉的56页的报告涵盖了目前人脸识别的广泛用途和众多侵权行为。其中包括种族歧视、警察监视, 以及商业保密法如何向公众隐瞒算法偏见。其中AI Now Institute对“情绪识别”表达了特别恐惧:“面部识别的一个分支号称能通过脸部图像检测到个性、内在感觉、精神健康, 和工作投入程度。” 想到你的老板会通过AI相机不断评估你的状态已经够糟糕的了, 而让警察通过微表情的“情绪识别”来“预测”你未来的犯罪更是不能想象。

报告解释说, 这是因为 “情绪识别” 不过是计算机化的相面术罢了。这是一个不光彩的伪学。1880年代, 声名狼藉的意大利犯罪学家隆布罗索(Cesare Lombroso)将这一理论发扬光大。尽管它在任何科学领域都缺乏基础, 但以数据为盈利中心的公司抓住了这个商业机会。它们不仅把名字和脸一一匹配, 而且试图把人的整个行为模式和未来都归结于你眉毛和鼻子的某种神秘关系,且号称这种关系只能通过电脑破译。

两年前, 上海一所大学的学生发表了一份报告, 详细介绍了他们声称的一种机器学习方法, 可以从面部特征确定犯罪行为。这篇论文被广泛批评。包括AI Now 的创始人克劳福德(kate crawford)。她告诉The Intercept记者, 它其实就是 " 骨相学(从颅骨形态研究人的精神和性格),只不过用了机器学习的工具, 而不是卡钳"。

Crawford和她的同事们比以往任何时候都更反对这种文化和科学上的倒退: "尽管在与纳粹的种族政策沾边后, 相面术就失去了它的吸引力,但目前研究人员很担心相面术会在“情绪识别”应用中死灰复燃 "报告写道。“尽管AI能告诉我们学生、客户或犯罪嫌疑人的真实感受这种想法非常有吸引力,但是它的科学根据非常可疑,且在历史上有前车之鉴。”

在给The Intercept的一封电子邮件中, AI Now的两位联合创始人,同时也是纽约大学杰出教授惠特克(Meredith Whittaker)和克劳福德举例解释了为什么“情绪识别”在今天比以往任何时候都令人担忧。“一个名为Faception声称, 他们可以从脸上 ’ 发现 ’ 某人是否是恐怖分子。 另一名为hirevue的公司声称, 使用机器视觉的能力和海量数据可以从人们的’ 微表情 ’ 预测他们是否会成为一名好员工。”

Faception声称可以从外表上确定某人是否"心理不平衡"、焦虑或有魅力,而hirevue 则在同样的基础上对求职者进行排名。

与任何自动、无形的计算机决策系统一样,被错误标记的可能性是巨大的。"一个人将如何对这些系统得出的结果提出质疑?"克劳福德补充道,“当我们依靠AI黑盒来判断人类的’ 内在生命 ’ 或价值时, 会发生什么?其中一些产品引用了心理学文献中长期存在争议的理论, 却被AI创业公司作为事实写进算法。”

更糟糕的是, 做出这些决定的算法被公司保密, 以商业秘密知名不受审查。惠特克认为,商业秘密使情绪识别的问题更加严重: "因为这些技术大多是由私营公司开发的, 受到商业秘密保护。我们强烈建议保护在道德上反对这些算法从而揭发举报的人们。这样的举报至关重要,因为大对数数据公司将隐私和透明度视为一种负担,而不是一种美德: " 大多 (AI 开发人员) 否认负有责任, 并表示这取决于客户决定如何使用产品。

伪科学与最先进的计算机工程完美结合, 再投放到没有问责制的社会中。没事,能出啥问题呢?

转载自微信公众号 天成智汇

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值