CSDN资讯

这里,有作为技术人必须知道的业界大事。

李飞飞为什么会离职 Google?

640?wx_fmt=gif

今年 9 月,谷歌云 CEO Diane Greene 在其官方博客上公布了一则重磅消息,来自卡内基梅隆大学的计算机科学院院长 Andrew Moore 教授将在 2018 年底接任李飞飞的谷歌云 AI 负责人职位,而李飞飞也将正式回归斯坦福大学执教,同时,李飞飞还将保留 Google 云顾问的角色。而 11 月 20 日,斯坦福人工智能实验室官方 Twitter 发布消息,称李飞飞将离任斯坦福人工智能实验室负责人,不过会继续担任斯坦福视觉与学习实验室(SVL)负责人,以及新成立的斯坦福以人为本人工智能研究院共同院长。

这位对于 AI 领域有着极高贡献且为 Google AI 落地中国立下汗马功劳的英雄,究竟为何离职 Google?她又有着什么样的愿景?日前,外媒《连线》采访并详述了李飞飞探寻让人工智能更好地造福人类的征程。

640?wx_fmt=jpeg

图片来源:Wired

人工智能有个问题:缔造者的偏差会直接影响人工智能的未来。李飞飞计划通过重启她参与发明的这个领域来修正这一点。

以下为译文:

去年六月份,某个炎热的晚上,时针指向了 1 点,李飞飞穿着睡衣,在华盛顿地区的酒店房间里练习着几小时之后她将要进行的演讲。在入睡之前,李飞飞从演讲稿中删掉了一整段,以确保能够在短时间内让听众抓住重点。早上醒来后,这位身高一米六的人工智能专家并没有像往常那样穿上 T 恤衫和牛仔裤,而是选择了靴子和蓝黑相间的针织裙。然后她打了一辆 Uber,直奔美国首都南边的 Rayburn House 办公楼。

在进入美国众议院的科学、空间和技术委员会的会议室之前,她举起手机拍摄了那个超大的木门。(“作为科学家,我觉得这个委员会很特殊。”她说。)然后她迈步进入了那个像洞穴一样的房间,走上了证人席。

那天早上的听证会题目为“人工智能——能力越大,责任越大”,出席的人包括政府审计办公室的首席科学家 Timothy Persons 和非营利组织 OpenAI 的联合创始人兼首席技术官 Greg Brockman。但听证席上只有李飞飞这名唯一的女性才有资格说自己在 AI 领域取得了突破性的成就。作为创立 ImageNet 这个帮助计算机识别图像数据库的研究者,她属于那为数不多的为近年来 AI 的进步立下汗马功劳的顶尖科学家之一,而这些科学家的数目可能还凑不齐一个餐桌。

同年六月,李飞飞暂时离开了她在斯坦福大学人工智能实验室的职位,出任 Google 的首席 AI 科学家。但她出现在委员会面前的原因则是她还是另一个非营利组织的联合创始人,这个非营利组织致力于让女性和有色人种也加入到人工智能的行列中。

因此难怪立法者会寻求她的专业知识了。但她的讲话内容却令人震惊:她所钟爱的领域会带来巨大的危险。


640?wx_fmt=png

AI 技术带来的威胁


一项发明的出现和造成影响之间的间隔可能很短。有了像 ImageNet 这种人工智能工具的辅助,计算机可以经过训练后完成某向特定的任务,并且速度比任何人类都快得多。随着这项技术变得越来越复杂,它开始担任数据的过滤、排序和分析任务,并做出有全球性社会影响的决策。尽管这些工具已经存在了 60 多年,但在过去十年内,我们开始在能改变人类生活轨迹的方面使用它。今天,人工智能被用来辅助判断病人的治疗方案、判断人寿保险的受益人资格、判断犯人的服刑时间、判断面试者是否能得到工作。

这些能力当然非常危险。亚马逊不得不放弃一个人工智能招聘软件,因为它学会了给包含“女性”一词的简历打低分。人们也没有忘记 Google 在 2015 年闹出的乌龙,它的图像识别软件将黑人标识为猩猩;还有微软的 AI 聊天机器人开始发种族歧视的推特。但这些问题都是可以解释的,因此可以被改正。李飞飞相信,在不久的未来,我们终究会遇到无法改正的错误,因为人工智能技术正在被迅速地、大范围地接纳。

那天早上李飞飞在 Rayburn 大楼作证,因为她相信她的领域需要重新调整。那些杰出的、强大的男性技术领袖们早就在警告,在未来,人工智能驱动的科技有可能会成为人类的威胁。但李飞飞认为那些恐惧受到了太多的关注。她更倾向于一个不那么夸张但更重要的问题:AI 对人类工作和生活的影响。它一定会改变人类的工作和生活,但不一定是朝着好的方向发展。李飞飞说:“我们还有时间,但我们必须立即行动了。”她认为,如果能够对 AI 的工程方式和工程人选做出根本性的改变,那么这项技术就能变成善意的力量。否则,我们就是没有考虑人性。

在听证会上,李飞飞是最后一个发言。人们无法想象她前一天晚上练习时是多么紧张。她说:“人工智能与人工没有任何关系。”她提高了语调。“它来自人类的创意,由人类创造,更重要的是,它会给人类带来影响。它是我们刚刚开始理解的强大工具,伴随而来的也有责任。”在她周围的目光变得明朗起来,人们不禁发出了赞同的声音。

640?wx_fmt=jpeg


640?wx_fmt=png

AI 英雄——李飞飞


李飞飞在中国南方的工业城市成都长大。她曾经是个孤独、聪明的孩子,也非常喜欢读书。她的家庭一直都不太寻常:尽管周围的文化并不喜欢宠物,但她的父亲给她带来了一只小狗。她的母亲来自书香门第,鼓励她去阅读《简·爱》。(李飞飞说:“在勃朗特家族中我最喜欢艾米丽,和她的《呼啸山庄》。”)李飞飞 12 岁时,她的父亲移民到了新泽西州的帕西帕尼,之后几年的时间她和母亲都没能见到父亲。她的家庭在她 16 岁时终于团聚了。在李飞飞到达美国后的第二天,她的父亲就带她去加油站,让她去告诉机械师来修车。当时她几乎不会说英语,但总算通过手势解释清楚了问题。在短短两年内,李飞飞熟练掌握了英语,甚至能为几乎不会英语的父母做翻译和辩护律师。“我必须成为我父母的嘴巴和耳朵。”李飞飞说。

她在学校的成绩也非常优秀。她的父亲喜欢在各家的二手甩卖上淘各种东西,他给李飞飞找到了一台科学计算器,于是她一直在数学课上使用,直到有一天她的数学老师指出了她计算中的错误,才发现这台计算器有个功能键坏了。李飞飞还特别感谢了她的另一名高中老师 Bob Sabella 为她指引了学术生涯,还帮她获得了美国身份。帕西帕尼高中没有高级微积分课程,所以他自己编写了一套临时的微积分课程,在午休时间教给李飞飞。Sabella 和他的妻子还把李飞飞当作家庭的一员,带她去迪士尼度假,还借给她两万美元,让她父母新开了一家干洗店。1995 年,她成了普林斯顿大学的一名学生。在普林斯顿期间,几乎每个周末她都要回家帮助家里打理生意。

在大学期间,李飞飞的兴趣非常广泛。她的专业是物理,同时也学习计算机科学和工程。2000 年,她开始在帕萨迪纳的加州理工学院攻读博士学位,同时研究神经科学和计算机科学。

李飞飞能够发现并培养看似不同的领域之间的联系,这使她产生了 ImageNet 的想法。她的研究计算机视觉的同事当时在研究一个模型,能够帮助计算机接收并解码图像,但模型的范围很受限:研究人员需要编写一个算法来识别狗,编写另一个算法来识别猫。李飞飞开始觉得,问题可能不是在模型上,而是在数据上。她想像,儿童通过视觉来认识世界,通过在幼年时期观察无数的物体和场景来学习世界,或许计算机也能通过相似的方法学习,通过分析大量图像和图像间的关系来学习。这个发现对于李飞飞非常重要。她说:“这是组织整个世界的视觉概念的一种方法。”

但她发现很难说服同事相信,在巨大的数据库中为每个图像加上标签是合理的。更困难的是,李飞飞发现,为了实现这个想法,图像的标签不能是通用的“哺乳动物”之类,而必须是高度细化的“星形鼻子的鼹鼠”这种标签。2007 年李飞飞辞掉了普林斯顿担任助理教授,当她谈起 ImageNet 的想法时,学院的人几乎无人问津。最后,有一名专业是计算机架构的教授同意与她合作。

下一个难题就是构建这个庞然大物。这意味着大量的人需要花费大量时间完成无聊的给照片加标签的工作。李飞飞尝试以每小时 $10 的价格招募普林斯顿大学的学生,但进展非常缓慢。后来一名学生建议她尝试 AmazonMechanical Turk。这样她一下子就能用很少一部分成本雇佣大量的工人。但把工作团队从一小部分普林斯顿学生扩展到几万个看不见的 Turk 工人本身也是项艰巨的工作。李飞飞必须考虑到工人自身可能产生的偏差。“网上的工人的主要目标就是用最容易的方式赚钱,对吧?”她说,“如果你让他们从 100 个图像中选择熊猫,怎么才能知道他们没有随便点击呢?”于是她加入了特定的图像作为控制组——比如金毛的图像,这些金毛的图像已经被正确地识别成了狗。如果 Turk 工人正确地标识了这些图像,就可以认为他们在认真工作。

2009 年,李飞飞的团队感到这个拥有 320 万图像的大规模数据集已经足够使用了,于是他们发表了一篇论文,同时附带了这个数据库。(后来数据库的大小成长到了 1500 万。)最初这个项目很少有人关注。但后来团队想到了一个主意。他们联系了下一年在欧洲举行的计算机视觉竞赛的主办方,请求他们让参赛者使用 ImageNet 来训练他们的算法。于是就促成了著名的 ImageNet 大规模视觉识别挑战赛。

就在同一时间,李飞飞加入了斯坦福担任副教授。她当时已经嫁给了一名机器人学家 Silvio Savarese。但他的工作位于密歇根大学,两人相隔很远。李飞飞说:“我们知道硅谷最适合解决我们的两地问题。而且,斯坦福也非常特殊,因为它是 AI 的诞生地之一。”

2012 年,多伦多大学的研究者 GeoffreyHinton 加入了 ImageNet 的竞赛,使用 ImageNet 来训练一个后来被称为深度神经网络的 AI。结果发现这个 AI 比之前的任何 AI 的准确率都高,于是他获胜了。李飞飞本来没打算去观看 Hinton 获奖,因为她当时在休产假,而颁奖典礼在意大利的佛罗伦萨。但是她意识到这将是历史性的一刻。所以她在最后一刻购买了午夜航班的机票。Hinton 的神经网络改变了一切。到了 2017 年,也就是 ImageNet 竞赛的最后一年,计算机识别图像中的物体的错误率已经从 2012 年的 15% 下降到了 3%。至少从某个方面来看,计算机比人类更善于“看”。

ImageNet 使得深度学习的发展成为可能,从而奠定了现在的自动驾驶汽车、面部识别、能识别物体的手机相机等技术的基础。

就在 Hinton 领奖后不就,李飞飞还没休完产假时,她就开始思考她的同事中很少有女性。当时她敏锐地感到了这一点,并且意识到在人工智能领域女性的缺乏将成为一个大问题。大多数建立 AI 算法的科学家都是男性,而且都是拥有相似背景的男性。他们拥有特定的世界观,反映到了他们从事的项目中,甚至反映到了他们预见的危险中。许多 AI 创建者都是科幻迷,都会从《终结者》或《银翼杀手》中思考 AI 的危险性。李飞飞认为,担心这些危险当然没有错。但是这些思想对于 AI 可能带来的风险认识太狭隘。

如李飞飞所说,深度学习系统“输入有偏差,输出就会有偏差”。李飞飞认识到,尽管驱动人工智能的算法可能是中立的,但打造输出结果的那些数据和应用则不一定。关键是建立人工智能的人,和建立人工智能的原因。李飞飞有一次在国会山指出,工程师没有多样性,那么算法就可能有偏差,从而导致不公平的贷款决策,或者训练出的神经网络只能识别白人的面孔,而对于黑人面孔则很难识别。“我认为,如果我们 20 年后才醒悟,发现我们的技术、领导者和从业者缺乏多样性,那对我来说就是一种灾难。”

李飞飞开始相信,将 AI 发展的重点放在帮助提升人类体验上是至关重要的。她在斯坦福的项目之一就是与一家医学校合作,将 AI 引入 ICU,从而解决一些问题,如减少医院获得性感染等。这需要开发一种摄像头系统,监视洗手站等地方,如果发现医院的员工忘记洗手就进行提醒。这种跨学科的合作很不寻常。“计算机科学界从来没有人帮助过我。”领导斯坦福大学临床卓越研究中心的 Arnold Milstein 教授说。

这项工作让李飞飞看到了 AI 可能的进步方向。人工智能可以辅助人类的技能,而不是简单地取代人类。如果工程师们与其他学科的人们合作,就能创造出扩展人类能力的工具,如将耗费时间的任务自动化,使得 ICU 的忽视能够在病人身上花更多时间,而不是造一种 AI 来自动化购物流程从而取代收银员的工作。

考虑到 AI 技术正在飞速发展,李飞飞发现她的团队需要尽可能快地进行人员调整。

640?wx_fmt=jpeg

李飞飞在斯坦福大学的人工智能实验室

李飞飞一直都痴迷于数学,所以她意识到让女性和有色人种加入计算机科学领域需要不懈的努力。根据国家科学基金会 2000 年的报告,获得计算机科学学士学位的的女性只有 28%,到了 2015 年这个数字变成了 18%。即使是李飞飞自己的实验室,也很难招到足够的女性和有色人种。李飞飞说,尽管她的实验室比其他典型的 AI 实验室更多元化,但依然主要由男性组成。“我们依然没有足够的女性,而且特别缺乏少数族裔,甚至进入实验室的渠道也是如此。学生们去参加 AI 会议,发现 90% 的人都是男性,非裔美国人的数量也不如白人男性多。”

当李飞飞成为 Olga Russakovsky 这位女性研究员的导师时,Russakovsky 几乎要放弃自己的职业生涯了。Russakovsky 已经是个小有成就的计算机科学家,她从斯坦福获得了数学的学士学位和计算机科学的硕士学位,但她不擅长写论文。作为实验室内的唯一女性,她觉得与同行脱节了。但事情在李飞飞加入斯坦福之后发生了变化。李飞飞帮助 Russakovsky 学会了一些搞科研必须的技能。Russakovsky 说:“她还帮我建立了自信。”她现在已经成为了普林斯顿的计算机科学的助理教授。

四年前,当 Russakovsky 完成博士学位时,她请求李飞飞帮助她建一个夏令营,来召集对 AI 感兴趣的女孩。李飞飞立即同意了她的建议,她们召集了志愿者,向许多高中二年级学生发出了邀请。不到一个月的时间她们就收到了 200 多分申请,尽管她们只计划了 24 个位置。两年后她们扩大了计划,设立了非营利组织 AI4All,旨在将那些缺乏机会的年轻人带进斯坦福和 UC 伯克利,其中包括女孩、有色人种和经济上有困难的人。

在加州奥克兰市区的 Kapor 中心,AI4All 有一个狭小的共享办公室,现在由于组织的成长,他们即将搬到新的办公室去。现在,AI4All 在六所大学校园内有夏令营。(去年她们在卡耐基梅隆大学新开设的夏令营中,20 个名额收到了总计 900 份申请。)一名 AI4All 的学生尝试使用计算机视觉来检测眼疾。另一名学生使用 AI 写了个程序来判断 911 报警电话的紧急程度,因为她的祖母因为救护车没能及时赶到而去世。很明显,从业人员的观点会给未来的人工智能工具带来巨大影响。

640?wx_fmt=jpeg

斯坦福大学人工智能实验室,丰田的人类支持机器人的机箱。


640?wx_fmt=png

落地 Google,用 AI 造福人类


在斯坦福人工智能实验室任职三年后,李飞飞于 2016 年离开,作为 Google Cloud 的人工智能首席科学家加入了 Google。李飞飞想要理解工业界的运作原理,如果能通过部署新工具来解决客户的问题,那就有可能扩大她的跨学科研究的范围。像 Facebook、Google 和微软等都在人工智能研究方面投入了大量金钱,以掌握这项技术为他们的业务所用。而且,企业经常比大学拥有更多、更好的数据。对于 AI 研究者来说,数据就是能量。

最初,李飞飞充满激情。她访问了许多公司,这些公司都使用她的科学来解决实际问题。她带领团队推出了面向公众的 AI 工具,允许任何人创建机器学习算法,而不需要写一行代码。她还在中国设立了一个新的实验室,帮助使用 AI 来改进医疗行业。她在达沃斯世界经济论坛发表演讲,与国家元首、流行艺人交流。

但在私人公司工作给她带来了新的压力。去年春天,Google 与美国国防部前述的 Maven 项目的协议使李飞飞遭到了非议。这个项目利用 AI 分析视频图像,然后用于指引无人机的攻击,据 Google 说,这个项目旨在利用 AI 来识别低分辨率目标,而总体的目标是尽可能拯救更多的生命。但许多员工反对将这项技术用于军事无人机。大约有 4000 人签署了一项请愿,要求 Google“制定明确的政策,表明 Google 或其合作者永远不会构建与军事相关的技术”。一些员工甚至在抗议中辞职。

尽管李飞飞并没有直接参与这项交易,但她所工作的部门正好负责 Maven 项目。她写过一封邮件,内容似乎是帮助公司避免尴尬的局面,结果这封邮件被泄露给了纽约时报,使得她被推上了风口浪尖。这一切让人非常迷惑,因为她的公众形象一直是道德高尚的形象。实际上,在公众发出抗议之前,她认为这项技术是“基本无害”的,她从未想过员工会抗议。

但李飞飞确实意识到为什么问题会爆发:“问题不在于事件本身,而在于时间,在于我们应当有紧迫的责任感,在于 AI 越来越强大的能力,以及硅谷对相关对话的参与。Maven 只是分歧点上的一个项目而已。”她说。现在仅有“不作恶”的姿态是不够的。

这场风波直到 Google 宣布它不会再续约 Maven 的合同才平息下来。Google 的高管和科学家们——包括李飞飞——也编写了一份公开的指导方针,保证 Google 会将其对于 AI 技术的研究用于造福人类的目的,避免工具中的偏差,同时避免研究可能会伤害人类的技术。李飞飞已经准备返回斯坦福,但她觉得有必要亲眼看到这份指南。“我认为很重要的一点是,要认识到每个组织都有一组原则和责任审核过程。你知道本杰明·富兰克林曾经说过,当宪法出台时,它可能并不完美,但它是眼下最好的。”她说,“人们依然会有不同的观点,而不同意见的人依然会继续讨论。”但当指南发布时,她说,那是她那一年最高兴的一天:“我自己能参与其中并做出贡献,实在是太重要了。”

六月,我在李飞飞的家中见到了她。她的家是斯坦福校园中的一条小路尽头的一栋二层房子。当时刚刚过了晚上八点,她的丈夫带领儿子和女儿上楼睡觉。她的父母在楼下的房间里休息。餐厅已经成了孩子的游乐场,所以我们坐在客厅里。客厅里到处摆满了家庭的照片,还包括一台坏了的三十年代的老式电话。“我的父母是移民!”她说。她的父亲依然喜欢去逛旧货市场。

在我们讨论时,她的手机收到了一条消息。她的父母让她翻译医生为她母亲写的一条医嘱。不论是在 Googleplex 的会议中,或在世界经济论坛上的演讲中,还是在国会听证时的绿色房间中,她的父母经常会给她发消息请求协助。她会很快回复,而且不会打断思路。


640?wx_fmt=png

离开 Google 返回斯坦福,繁荣的 AI 并不成熟


在李飞飞一生的大部分时间里,她都会同时做两件不同的事。她是一名科学家,但同时对艺术也有深刻的见解。她是美国人,同时也是中国人。她对人类感兴趣,也对机器人感兴趣。

七月末,李飞飞在准备家庭旅行,帮助女儿洗手的时候给我打了个电话。“你看到 Shannon Vallor 的声明了吗?”她问。Valllor 是 SantaClara 大学的哲学家,专门研究新兴科技的哲学和伦理问题。李飞飞为此做了巨大努力,她甚至在华盛顿的听证会上引用 Vallor 的话说:“没有真正独立的机器价值,机器价值就是人类价值。”这次任命并非史无前例。其他公司也开始在 AI 软件的使用方式、使用人选上设置保护机制。微软在 2016 年建立了伦理委员会。微软说,它拒绝了那些可能会使得客户陷入伦理困境的业务。它还开始在 AI 的用途上设置限制,例如禁止某些应用程序使用面部识别等。 

但从某种程度上,一家公司在讨论伦理问题等于承认自己是守在鸡舍前的那只狐狸。我们在七月份采访李飞飞时,她已经知道自己该从 Google 离职了。她在斯坦福的两年假期将要结束。很多人猜测李飞飞会因为 Maven 项目的失败而离职。但她说,她返回斯坦福的原因是,她不想放弃她在学术上的地位。而且她似乎很疲惫。在 Google 经历了一个动荡的夏天之后,道德指南的编纂让她“总算看到了隧道尽头的光明”。 

而且她非常渴望在斯坦福开始一个新的项目。今年秋天,她和斯坦福大学前教务长 John Etchemendy 宣布将设立一个把 AI 与人类学研究合在一起的学术中心,将自然科学的研究、设计研究和跨学科研究混合在一起。“作为一项新的科学,AI 从来没有得到过人类学家和社会学家的关注。”她说。长期以来,大家都认为这些领域对人工智能来说无关紧要,但她却认为这些领域相当关键。

从根本上来说,李飞飞是个乐观主义者。在六月份的听证会上,她告诉立法者,“我深切地思考了对于人类有危险、有害的工作,比如救火、自然灾难恢复等。”她相信,我们不仅应该尽量避免让人类参与这些有害工作,而且应该让技术协助这些工作。

当然,一个研究所的一个项目对于整个领域的改变是有限的。但李飞飞还是认为她会尽一切可能培养研究人员考虑伦理问题,将原则置于利益至上。 

在电话中,我询问李飞飞她是否考虑过有其他的方式来发展 AI,或许能避免我们今天遇到的问题。她说,“我觉得很难想象。科学进步和发明都是通过一代又一代枯燥的努力、试错完成的。我们需要很长时间才能发现这种偏差。我也是仅仅在六年前才意识到‘哦天啊,我们陷入危机了’。”

李飞飞在国会山上说:“作为科学家,我很惭愧,AI 这项技术还依然不成熟。与每天都在给人类带来进步的传统科学——物理、化学、生物——相比,AI 还有很长很长的路要走,才能找到帮助人类的方式。”她补充到,“有了正确的指导,AI 才能为人类造福。但没有正确的指导,技术会让贫富差距更大,让科技更加排外,同时增强我们几代人竭力避免的偏见。”李飞飞让我们相信,现在正是一项发明造成巨大影响的转折点。

原文:https://www.wired.com/story/fei-fei-li-artificial-intelligence-humanity/

作者:Jessi Hempel,WIRED 的高级撰稿人,曾担任财富杂志的撰稿人,编写过关于雅虎、Facebook、Twitter、LinkedIn、IBM 和 RIM 等公司的封面故事。

译者:弯月,责编:屠敏

推荐阅读:

640?wx_fmt=gif

640?wx_fmt=gif

阅读更多

没有更多推荐了,返回首页