Facebook秘密文件泄露:赚钱(和背锅)是AI的使命

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/yH0VLDe8VG8ep9VGe/article/details/79946474
夏乙 李杉 发自 凹非寺
量子位 出品 | 公众号 QbitAI

国会听证大戏刚刚落幕,一份机密文件的曝光,又把Facebook推到了聚光灯下:

这家公司利用AI赚钱,有很特别的方式。当然,美国民众听闻之后,又是一阵紧脏。

640?wx_fmt=gif&wxfrom=5&wx_lazy=1

赚钱利器

美国媒体The Intercept最新获取了一份Facebook机密文件,其中透露了Facebook提供给广告主的一项贴心服务:忠诚度预测

这是一项基于人工智能的服务。

所谓忠诚度预测,简单来说就是一句话:预测用户的未来行为,作为广告投放的依据。

640?wx_fmt=gif&wxfrom=5&wx_lazy=1


在别的平台,广告主能根据用户现状来精准投放广告,而在Facebook,广告主依据的,可能是用户还没做出的决定。

通过预测自己的20亿用户接下来面临什么选择,Facebook做到了“比你更懂你”,帮广告主“提升了营销效率”。

比如说,有了忠诚度预测服务,Facebook完全可以说:亲爱的苹果,亲爱的三星LG华为,我们的AI能预测出几百万iOS用户有心转投Android,你们要不要精准投放一下?

你接下来做出什么决定,就在平台和广告主一念之间。

相比之下,购物车里放个高达就再送上一大波手办的淘宝,根据搜索词来分发广告的Google百度,都太简陋了。

因为Facebook所掌握的数据,详细周全到任何一家同行都望尘莫及。

640?wx_fmt=jpeg

 Facebook如何用AI来精准投放广告。The Inception整理

从文件中可以看出,Facebook“忠诚度预测”依靠的数据有:用户位置、设备信息、所连接Wi-Fi网络的情况、看了什么视频、亲朋好友的各种细节……

甚至你和朋友聊天的内容,也是广告投放的指路明灯。参议员Bill Nelson就遇到了:“昨天我在Facebook上跟朋友聊天时,提到喜欢某种吃巧克力,接着突然我开始收到各种巧克力的广告。”

这位参议员遇到的,只是Facebook广告服务的冰山一小角。

640?wx_fmt=gif

这就好像,你的一切,早已经被Facebook的AI看光光。

这就是上面提到的,AI比你更懂你。

这个技能,如果被“泛化”……应用在其他方面,或者被其他人所利用的话,想想还真是有点怕怕。这也难怪美国人民又有点炸锅。

Facebook说,为保护用户隐私,所有数据都聚合的、匿名的。当然,Facebook也不卖数据,他们出售,或者说出租的,是通过自己分析数据而实现的“预测”能力。

剑桥分析获取的那点三手数据,都能用来实现千人千面推送政治广告,手握20亿用户全方位信息的Facebook,要决定你下一部手机来自谁家只会更容易。

面对质疑,Facebook想扯上同行们。这家公司在回应中表示:

和很多其他广告平台一样,Facebook用机器学习技术,来向正确的人展示正确的广告。我们并不宣称知道人们所思所感,也不会将用户个人信息分享给广告主。

挡箭牌&背锅侠

你以为AI只能用来赚钱?拿衣服。

Facebook最近还为AI开辟了又一大新功能:背锅。

640?wx_fmt=png

国会山10小时,人工智能戏份不少。小扎反复提起,似乎十分依赖,甚至寄予厚望。但深究起来,它一直是个挡箭牌背锅侠

减少仇恨言论?AI能搞定。

恐怖主义招募信息?AI能搞定。

虚假帐号?还是AI。

俄罗斯干涉大选?AI。

种族歧视广告?AI。

安全问题?AI。

那这个问题怎么解决?靠AI吧。

问题为什么还没解决?AI还不够好。

640?wx_fmt=gif

在内容审查问题上,Facebook的AI就一直在尝试,从未被认可。

小扎在听证会上反复提到,Facebook的检测系统在没有任何人添加标签的情况下就自动删除了99%的“恐怖主义内容”。2017年,Facebook宣布“尝试”用人工智能来探测“可能支持恐怖主义”的言论。

99%的“恐怖主义内容”,很可能是以图片和视频形式为主。经过训练的机器学习算法,现在识别图像的准确率在特定的数据集上甚至早已超越人类,各家公司也都投入了大规模的使用。

但是,更多的内容是以文字形态出现的。

但是,AI理解自然语言的能力甚至还达不到幼儿园水平。人类语言的一些细微差别,人工智能识别起来表现堪忧,让它来分辨真假新闻也是强AI所难。

小扎自己也承认,Facebook用来识别仇恨言论的AI,现在错误率实在是太高了。想要依靠AI审核内容,可能“还需要5-10年”。

到今年年底,Facebook打算雇2万人来做安全和内容审查。

640?wx_fmt=gif

这种反复用“人工智能”做辩护的行为,也遭到了媒体的批评。

人工智能这个词太宽泛了,想要确切地定义它,写进教材就是整整一章。它包含各种自动化、机器学习等等。The Verge发表的一篇文章说,“人工智能”这个词,让小扎在一群外行人面前找到了一种托词,毕竟他们没有能力展开深入提问。

欺负我们不懂技术?有一位议员做出了反击。

加里·彼得斯(Gary Peters)追问了一个关于人工智能透明度的问题:“你知道,人工智能并非没有风险,你必须对这种算法的构建方式保持极高的透明度。”

是的,你的挡箭牌:人工智能,它本身就很有问题

扎克伯格承认这个问题非常重要,他还表示,Facebook有一整个人工智能伦理团队来解决这个问题。

只不过,就算不说人工智能,Facebook以及它的同行们,对“透明度”的理解也只是基本等同于“模糊地写在用户协议里”。这似乎并不能解决什么问题。

至于Facebook这一轮道歉的核心——数据泄露并被Cambridge Analytica滥用的问题,人工智能也帮不上什么忙。

而在真的需要人工智能的时候,它虽然有着巨大潜力,却也会因为使用了有问题的数据集而带上偏见。倾向于将黑人认作罪犯、认为女性和科学工作不搭等等问题,在人工智能的应用中层出不穷。

For Good

扎克伯格在听证会上说:

Across the board, we have a responsibility to not just build tools, but to make sure those tools are used for good.”

打造工具,并确保这些工具用来做好事了。但愿小扎和他的同行们真的相信这句话,还能记住它。

最后发个彩蛋,小扎这次的国会听证,不少美国人看完之后,说扎克伯格是机器人……然后就有人出来恶搞了不少视频。

这是其中一段。

说着说着短路了……

640?wx_fmt=gif

修吧修吧,修好了……

640?wx_fmt=gif

周末快乐~

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。

640?wx_fmt=jpeg

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态


阅读更多 登录后自动展开
想对作者说点什么? 我来说一句
相关热词

没有更多推荐了,返回首页