本文的目的是让大家了解当前AI在各个领域的应用及发展情况,以此来识别网上那些打着AI的旗号进行各种不靠谱的评测和预测行为,即“AI万金油”骗术,防止大家被收智商税。
一、为什么如今存在大量的”AI万金油“骗术?
AI是一系列相关技术的涵盖性术语,其中有些技术已经取得杰出瞩目的进步,例如战胜人类顶尖围棋手的AlphaGo。不少公司利用公众的困惑来给他们正在出售的所有服务和产品打上“AI”的标签,另外加上媒体的大肆宣传也为那些将AI作为所有解决方案的公司提供了额外的帮助。
二、AI在各个领域的发展情况
这里主要将AI应用划分为三类。
1、感知方面(已取得巨大进步)
- 反向图像搜索
- 人脸识别
- 医疗诊断
- 语音识别
- 伪装冒充
- …
上述几项全是关于感知的问题(伪装冒充不是纯粹的感知,但也是有关联的,它们都是由生成性神经网络和区分/感知性神经网络相互竞争而创建的),感知是AI在少数几个领域所取得巨大进步的一个领域。AI已经在处理上述所有任务中全面超越人类,而且会发展地更好。
AI在感知领域的进步最根本的原因是,对于这些任务不存在二义性和不确定性。比如,给定两张人脸图像,这两张人脸图像是否代表同一个人是有事实依据的。因此,如果有足够的数据和算力,AI能够学习将一张脸与另一张脸区分开的模式。
2、自动判断(不完美但正在逐渐改善)
- 垃圾邮件检测
- 版权侵犯
- 文章自动评分
- 仇恨语音检测
- 内容推荐
- …
我们人类思维具有启发性,例如什么是垃圾邮件和什么不是垃圾邮件,只要给予足够的示例,机器也会尝试学习这种能力。
AI在处理上面那些任务将永远达不到完美的程度,因为这些任务涉及判断,而且理性的人也可能不同意正确的决定。
3、预测社会结果(非常可疑的)
- 再犯罪预测
- 工作成功性预测
- 预知执法
- 预测恐怖危险性
- 预测孩子所处的风险性
- …
由于我们无法预测未来,因此解决上述问题是非常困难的,这些问题的无法预测性对我们来说应该是常识,但当涉及到AI的时候,我们通常会忽略常识,而选择相信AI能够预测社会性结果。
上述三类AI应用列举是不详尽的,AI还有很多的其他应用,比如机器人、游戏等。
三、社会结果的可预测性实验
1、实验数据
实验过程和数据来自Fragile Families Study and Challenge,研究人员收集了4242个孩子从出生到9岁的12942个特征数据与家庭的相关数据,这些数据都是基于过去多年中的重复多次深度访问与家中观察的结果。他们使用这些数据来对每个孩子在15岁时GPA等六项特征的预测。
2、实验方法
这项研究使用了类似其他机器学习竞赛的挑战环境,模型任务是根据训练实例来学习背景数据和结果数据之间的关系,比赛期间在排行榜上评估准确性,比赛结束后根据保留的数据评估准确性。
3、实验结果
拥有将近13000个特征的AI模型预测结果与只有4个特征的简单线性回归模型的预测结果相差无几。
4、实验结论
在预测社会性结果方面,AI相比使用几个特征的人工评分好不了多少。
四、AI预测社会性结果的缺陷
使用AI进行社会性预测的缺陷如下:
- 需要获取个人数据
- 相关领域专家和工作人员的权力大幅转移给不负责任的科技公司
- 缺乏可解释性
- 影响干预
- 虚假的准确性
- …
与人工评分规则相比,AI在社会性结果的预测应用有着太多的缺点,其中最突出的可能就是缺乏可解释性。想象有这么一个系统,每当你被拦停在路边,警务人员都将你的数据输入进该系统中,而不是看驾驶执照上的积分情况,在多数情况下你可以被放行,但有时候这个黑匣子系统会告知你不再能开车上路了,并且系统不会告诉你得出结果的缘由。
五、总结
1、AI擅长处理很多事务,但无法预测社会性结果。
2、我们必须抵制旨在掩盖AI无法预测社会性结果这一事实的巨大商业利益
3、在大多数情况下,人工评分规则同样准确并且更加透明。
六、个人总结
1、原文作者解释了目前AI在各个领域的大致发展情况,揭露了哪些是AI能做到的,哪些是AI做不到的,用实验结果证明了当前任何以AI为标签的社会性预测产品和服务都是为了营销。
2、由于当前的人工智能还是弱人工智能,所以在处理社会性预测问题上非常无力,未来一定是向强人工智能发展的,强人工智能或许就能很好地解决社会性预测问题。
3、如今的商业公司为了推销自己的产品和服务都喜欢蹭科技热点,前有“AI算命”,后有“量子波动阅读”,这些噱头的唯一目的就是让不明觉厉的人掏腰包。相信未来的商业营销依然会紧贴科技发展,发明各种新名词,混淆视听以收取智商税。我们自己所能做的是多动手动脑,以后遇到各种新名词时自己动手收集资料,然后通过自己的思考总结相应的结论。
PS:本文翻译总结自:
https://www.cs.princeton.edu/~arvindn/talks/MIT-STS-AI-snakeoil.pdf