现如今,我们应该如何去定义人工智能

#现如今,我们应该如何去定义人工智能

人工智能的概念随着影响力正在不断的扩大,似乎身边的每个人都了知道了人工智能术语,但是如果我们问身边的人什么是人工智能,我敢肯定,你会得到各种神奇的定义,人工智能似乎每个人都知道,但是每个人也都不知道,这样看来定义人工智能不仅仅困难,而是完全不可能的,因为我们现在还不能真正的了解人类的智力。矛盾的是,人工智能的进步将有助于更多地定义人类的智能不是人工的智能。

但无论人工智能是什么,我们在过去几年中在计算机视觉和游戏等领域都取得了很大的进步。人工智能正在从一个研究的主题过渡到企业开始采用的早期阶段。谷歌和Facebook等公司已经对人工智能投入了大量赌注,并且已经在他们的产品中使用它。但谷歌和Facebook只是刚刚开始:在接下来的十年中,我们将看到人工智能逐渐渗透到一个接一个的产品当中。我们将与机器人交流,我指的是真正意义上的交流而不是那些脚本化的机器人,并且我们在交流的时候并没有意识到他们不是人类。我们将依靠汽车来规划路线来应对道路上可能出现的危险。可以肯定的是,在接下来的几十年中,人工智能的某些功能将被整合到我们接触的每个应用程序中,如果不触及应用程序,我们将无法做任何事情。

鉴于我们的未来将不可避免地与人工智能捆绑在一起,我们必须要问:我们现在在哪里?人工智能的状态是什么?我们将要发展到哪里?我们将从以下几个角度探讨一下人工智能应该如何进行定义"

  1. 今天的能力和限制
  2. 走向一般智能(通用智能)
  3. 训练还是不训练
  4. 什么是人工智能
  5. 智能的意义
  6. 助理还是演员
  7. 为什么突然的兴起
  8. 构建知识数据库
  9. 产生的结果
  10. 道德和期货
  11. 不久的未来

今天的能力和局限

人工智能的描述跨越几个轴:强度(它有多聪明?),宽度(它解决了一个狭义的问题,还是广义的问题?),训练(如何学习?),能力(我们遇到什么样的问题要求它进行解决?)和自治(是人工智能通过技术辅助人类,还是让他们自己解决问题?)。这些轴中的每一个都是一个频谱,这个多维空间中的每个点都代表了一种理解人工智能系统目标和能力的不同方式。

在强度轴上,很容易看到过去20年的结果,并意识到我们已经制作了一些非常强大的程序。国际象棋中,深蓝击败加里卡 斯帕罗夫 沃森击败了有史以来最好的Jeopardy冠军; AlphaGo击败了李世石(Lee Sedol),李世石可以说是世界上最好的围棋选手。但所有这些成功都是有限的。深蓝(Deep Blue),沃森(Watson)和阿尔法狗(AlphaGo)都是高度专业化的单用途机器,它们在一件事上做得非常好。深蓝和沃森不能玩围,阿尔法狗也不能下棋或者参加Jeopardy。他们的智力非常狭隘,即使是在非常基础的水平之上也不可以,没办法做到一概而论。在医学诊断等应用中使用沃森已经做了大量工作,但它的本质上仍然是一台问答机器,必须针对特定领域进行调整。深蓝有很多关于国际象棋战略的专业知识和广博的开局知识。阿尔法狗使用更通用的架构构建,但许多手工制作的知识仍然进入它的代码。我并不是要轻视或低估他们的成就,但重要的是要意识到他们还没有做过的事情。

我们还没有创造出能够解决各种不同问题的人工一般智能。我们仍然没有能够在一两年内收听人类的录音并开始说话的机器。虽然阿尔法狗"学会"下围棋是通过分析数千盘棋局,然后在通过跟自己对弈数千盘围棋,但同样的软件无法用来掌握围棋。使用相同的通用方法?也许有可能。但是我们目前付出最好的努力远远不是为了一种通用的智能,而是要求它足够灵活,可以在没有监督的情况下学习,或者足够灵活地选择它想要学习的内容,无论是玩游戏还是设计PC板。

走向一般智能(通用智能)

我们如何从狭隘的,针对特定领域的智能发展到更加普遍的智能?所谓的"一般智能",并不一定指的是人类一般的智能; 但我们确实希望机器可以解决不同类型的问题,而无需使用特定领域的知识进行编程。我们想要能够做出人类判断和决策的机器。这并不一定意味着人工智能系统将实现创造力,直觉或本能等概念,这些概念可能没有数字进行模拟。一般智能将有能力解决多种意想不到的情况,而一般人工智能无疑会实现“正义”和“公平”等概念:现在我们已经在讨论人工智能对法律体系的影响了。

自动驾驶汽车展示了我们目前面临的问题。为了实现自动驾驶,汽车需要将模式识别与其他功能相结合,包括理性,计划和记忆。它需要识别模式,因此它才可以对障碍物和街道标志做出反应; 它需要理性,既要了解驾驶规则,又要解决诸如避开障碍等问题; 它需要规划从当前位置到目的地的路线,同时考虑交通和其他模式。它需要反复做所有这些工作,并且不断更新它的解决方案。然而,即使自动驾驶汽车几乎包含所有人工智能,它也没有我们对普通智能系统所期望的灵活性。你不会指望自动驾驶汽车跟你进行对话,或者让他收拾你的花园。转移学习或者说是将一个领域的成功应用到另外一个领域中是非常困难的,更不要去想可以在另外一个领域中取得成果。你可能可能会重新设计许多软件组件,但这只是指出缺少的内容:我们当前的人工智能为特定问题提供了狭隘的解决方案; 他们无法为一般的问题提供解方案。你可以无限的添加狭隘的人工智能(在一辆汽车上安装一个机器人,它会告诉你如何去某个地方;这样他就可以给你推荐一些好的餐馆;跟你进行聊天,或者进行一些小游戏,这样你就不会觉得无聊),但是一堆狭隘的人工智能永远不会成为一般智能。一般智能不是关于能力的数量,而是关于这些能力之间的整合。

虽然像神经网络等方法最初是为了模仿人类大脑的过程而开发的,但许多人工智能计划已经放弃了模仿生物大脑的概念。我们不知道大脑是如何工作的; 神经网络在计算上是有用的,但它们并不能模仿人类的思想。在《人工智能:现代方法》一书中彼得·诺维格(Peter Norvig)和斯图尔特·拉塞尔(Stuart Russell)写道:“当莱特兄弟和其他人停止模仿鸟类并开始研究学习空气动力学时,"人类进行飞翔"这个问题就已经解决了。”同样,为了取得进展,人工智能不需要专注于模仿大脑运作的过程,而是试图了解大脑解决的问题。可以肯定的是,人类会使用任何数量的技术来学习,无论生物学水平上发生了什么。一般人工智能可能也是如此:它将使用模式匹配(如AlphaGo),它将使用基于规则的系统(如Watson),它将使用穷举搜索树(如Deep Blue)。这些技术都没有直接映射到人类的智能上。人类似乎比任何计算机做的更好的是建立它们世界的模型,并且根据这些模型采取行动。

通用智能的下一步是超级智能或超智能。目前尚不清楚如何区分超级智能和一般智能。我们是否期望一个超级智能系统拥有像创造力和主动性这样的品质么?鉴于我们很难理解人类的创造力,很难将机器的创造力视为一个有用的概念。专家们将阿尔法狗的一些举动称为“创意”; 然而,它们的行动过程和模式与其他所有的动作都是完全相同的,而不是以不同的方式来看待游戏。重复应用相同的算法可以产生令人惊讶或意外的结果,但仅仅是令人惊讶的而不是不是我们所谓的“创造力”。

将超级智能视为一个规模问题更容易一些。如果我们能够创造“一般智能”,那么我们可以很容易认为它可以迅速变成比人类智能强大几千倍。或者,更确切地说:要么一般智能要比人类的思维速度慢得多,要么通过硬件或软件来加速它是很困难的; 或者通过大规模的并行和硬件改进,它将加快速度。我们将从上千个核心的gpu变成成千上万个芯片上的数万亿个核心,数十亿个传感器将源源不断地发送数据。在第一种情况下,当速度变慢时,一般智能可能不是那么有趣(尽管对于研究人员来说这将是一个很好的选择)。在第二种情况下,加速将非常陡峭且非常快。

训练还是不训练

阿尔法狗的开发人员声称使用比深蓝更通用的人工智能方法:他们制作的系统对围棋的策略知之甚少,而是通过观察围棋游戏来学习的。这指向了下一个大方向:我们是否可以从有监督的学习(机器在有标签数据上进行训练),发展到无监督学习(机器自己学习如何对数据分组和构建数据)?

Yann LeCun在Facebook上的一篇帖子中说:“我们需要在考虑真正的人工智能之前解决无监督学习的问题。”为了对照片进行分类,人工智能系统会获得数百万张已正确分类的照片; 在从这些分类中学习之后,会给它一组没有标记的照片,然后让她去标记这些图片,判断它是否能够正确的标记测试集。没有标记的机器可以做什么?它能在没有标签的情况下判断这张照片中是一只鸟、一架飞机还是一朵花。机器能通过更少的数据观察来发现结构么?人类和动物都可以很轻松的做到这一点。

人类和动物都可以从相对较少的数据中形成模型和抽象的记忆:例如,我们不需要数百万张图像来识别一种新的鸟类,或者在一个城市中找到我们的方向。研究人员目前正在研究一个问题,是否能够制造一种人工智能来理解世界是如何运作的,然后预测出未来会发生的事情。是否有可能开发出一种能够应对全新情况的系统,例如汽车在冰上不可控的滑动?是否有可能建造一辆没有地图系统就可以行驶的车?人类可以解决这些问题,尽管他们并不一定擅长这些问题。无监督学习指出的问题不能仅仅通过更好,更快的硬件或使用当前库的开发人员来解决。

有一些学习方法代表了有监督和无监督学习之间的关系。在强化学习中,系统被赋予一些代表奖励的价值。机器人能否在穿过田野时不会跌倒吗?没有地图系统,汽车可以开车穿过城镇吗?在强化学习中奖励可以反馈到系统中,用于最大化成功的可能性。(OpenAI Gym是一个很有前途的强化学习框架。)

从极端上说,监督学习意味着复制一组标签,在本质上这就是模式识别,并且易于过度拟合,而完全无监督的学习意味着学会理性地推测某种情况,并需要算法突破。半监督学习(带有最小标签)或强化学习(通过顺序决策制定)代表了这些这两个极端之间的方法。我们可以看看它们能带我们发展到什么程度。

智能的意义

我们所说的“智能”是一个基本问题。在2014年的Radar帖子中,Beau Cronin总结了人工智能的许多定义。我们对人工智能的期望,在很大程度上取决于我们希望人工智能做什么。人工智能的讨论几乎都是从图灵测试开始的。图灵假设人们会通过一种类似于聊天的模型与计算机进行交互:他假设人与计算机进行了对话。这种假设限制了我们对计算机的期望:例如,我们不期望它可以驱动汽车或组装电路。这也是一个故意模棱两可的测试。计算机的答案可可能是含糊其词的,或者是不完全准确的; 但正确无误不是重点。人类的智慧也是有回避和错误的。我们不太可能把一个准确无误的人工智能误认为人类。

如果我们假设人工智能必须包含在能够运动的硬件中,例如机器人或自动驾驶汽车,我们就会得到一套不同的标准。我们要求计算机在自己的控制下执行定义不明确的任务(如开车到商店)。我们已经可以建立人工智能系统,可以在规划路线和驾驶方面比大多数人都做的更好。谷歌自动驾驶汽车之一出现故障的一次事故是因为算法被修改为更像人类驾驶,并承担了人工智能系统通常不会承担的风险。

自动驾驶汽车还没有解决许多困难的驾驶问题:例如,在暴风雪的山路上驾驶。无论人工智能系统是体现在汽车,无人驾驶飞机还是人形机器人中,它所面临的问题基本上都是相似的:如何在安全,舒适的环境中轻松完成任务; 如何在高风险,危险的情况下发挥自己作用。人类也不擅长这些任务; 但是,虽然图灵希望谈话中的人工智能能够回避一些问题,甚至不正确地回答问题,但在高速公路上行驶时,模糊或不正确的解决方案都是不可接受的。

可以采取物理行动的人工智能会迫使我们思考机器人的行为。什么样的道德规范可以管理自主机器人?阿西莫夫的机器人三大定律?如果我们认为机器人不应该杀死或伤害人类,那么武装无人机已经把这句话扔出了窗外。而面对老套的问题“如果事故是不可避免的,那么自动驾驶汽车应该撞到婴儿还是老年?”如果是假道德的话,那么这个问题有更严重的版本。一辆自动驾驶汽车是否应该冲入人群以避免可能导致乘客死亡的事故?抽象地回答这个问题很容易,但是人们很难想象人们购买会牺牲自己而不是会伤害路人让自己存活的机器。我怀疑机器人能不能会回答这个问题,但这个问题它肯定会在福特,通用汽车,丰田和特斯拉的董事会会议室中进行讨论。

我们可以通过去掉复杂的人机对话系统或自主机器人系统来更简单的定义人工智能,并且说人工智能仅仅是建立能够回答问题和解决问题的系统。能够回答问题和复杂逻辑推理的系统是我们多年来一直在构建的“专家系统”,最近体现在Watson中。(AlphaGo解决了另一种类型的问题。)然而,正如博•克罗宁(Beau Cronin)指出的那样,解决人类在智力挑战中遇到的问题相对容易; 更困难的是解决人类觉得简单的问题。几乎没有三岁的孩子可以玩围棋。但是所有三岁的孩子都可以认出他们的父母 - 并且是在没有大量的标记图像的情况下。

我们所说的“智能”在很大程度上取决于我们希望智能做什么。没有一个单一的定义足以满足我们的所有目标。如果没有明确的目标告诉我们我们想要实现的目标,让我们衡量一下我们是否已经实现了目标,那么从狭窄的人工智能到普通人工智能的转变并不容易。

人类的助手还是主宰?

媒体对于人工智能的报道关注的主要是自助系统,也就是自行运行的机器。理由很充分:这也就是人工智能有趣、性感、有些许吓人的一面,目前很容易看到的就是阿尔法狗,一个人类的助手来做它的动作,并幻想着一个由机器主宰的未来。但人工智能还有让人类过时的自动设备更重要的东西。它真正的价值在哪里,人工增强还是智能增强?人工智能还是智能人工?自从第一次尝试人工智能以来,人们一直在问这个问题,约翰·马尔科夫(John Markoff)在《优雅之爱的机器》(Machines of Loving Grace)一书中对这个问题进行了深入探讨。我们可能不希望人工智能系统做出决定; 我们可能想为自己保留决策权。我们可能希望人工智能通过向我们提供信息,预测任何行动方案的后果并提出建议,但将决策留给人类来增强我们的智能。尽管有《黑客帝国》的存在,但人工智能的未来更有可能是为我们服务,更有可能是增强我们的智能,而不是推翻人类,不是让我们成为一个过分强大的人工智能的奴隶。

GPS导航系统是增强人类智能的人工智能系统的一个特别好的例子。如果有了一个很好的地图,大多数人都可以从A点导航到B点,尽管我们的能力还有很多不足之处,特别是如果我们处于不熟悉的地段。绘制两个地点之间的最佳路线是一个难题,特别是考虑到诸如糟糕的交通和道路条件的问题。但是,除了自动驾驶汽车,我们从未将导航引擎连接到方向盘上。GPS严格来说绝对是一种辅助技术:它提供建议,而不是命令。每当你听到GPS说“重新计算路线”时,这就说明一个人做出了忽略掉GPS建议的决定或者是错误,并且GPS正在重新的调整策略。

在过去几年中,我们已经看到许多应用程序在某种意义上符合人工智能的要求。几乎任何属于“机器学习”范畴的东西都可以被定义为人工智能:事实上,“机器学习”是在人工智能这个学科声名狼藉的时候比较成功的部分。如果要构建人工智能,你不必像亚马逊的Alexa那样用人声建立人工智能。亚马逊的推荐引擎肯定是人工智能。像Stitchfix这样的Web应用程序也是如此,它将时尚专家的选择与推荐引擎结合起来。我们已经或多或少的习惯了(并且经常被)聊天机器人来处理自己的问题,你可能最终会跟一个人来交谈以解决你遇到的问题,但是总是要跟聊天机器人交谈来解决一些日常的问题。要求一个人把你的地址、保单号码和其他标准信息转录下来是没有意义的:电脑至少可以做到同样准确,如果不是要求更准确的话。

下一代助手将是(并且已经是)半自主的。几年前,拉里·佩奇(Larry Page)说《星际迷航》(Star Trek)中的计算机是理想的搜索引擎:它是一台了解人类的计算机,已经消化了所有可用的信息,甚至可以在人类提问之前就回答问题。如果你使用过谷歌,那么第一次它告诉你要提早离开一个地点来参加一个约会,因为当前的交通很差时你可能会感到惊讶。要做到这一点需要查看几个不同的数据集:你当前的位置,你约会的位置(可能在你的日历或联系人列表中),Google的地图数据,当前的交通状况,甚至关于预期交通模式的时间数据。目标不是回答问题; 而是它在用户知道他们需要它之前就提供了帮助。

为什么人们对人工智能的兴趣激增

为什么人工智能在经历了几十年的“人工智能寒冬”之后,如今再次成为热门的话题?当然,人工智能在Deep Blue出现之后曾短暂的出现在新闻中,并且在Watson之后再次出现; 但这股潮流并没有持续多久。人们很容易将人工智能在当前的崛起视为另一种潮流。而这却忽略了过去十年的变化。

人工智能的兴起取决于计算机硬件的巨大进步。自人工智能寒冬开始(维基百科将其追溯到1984年)以来,在这30多年来,性能和存储技术取得了巨大的进步。而这也是故事中不可避免的一部分,特别是如果你已经看到构成IBM Watson的成排的机器的话。据报道,AlphaGo运行在1,920个CPU和280个GPU之上 ; 击败李世石(Lee Sedol)的机器可能更大,并且使用的是谷歌开发的用于构建神经网络的定制硬件。即使人工智能算法太慢而无法在典型的笔记本电脑上高效工作,但是在在AWS、GCE和Azure等云平台上分配一些强大的计算能力也很容易,而且相对便宜。机器学习之所以成为可能,部分原因在于它能够存储大量数据。1985年,千兆字节运算的计算机还很少见,并且重达数百磅;现在千兆字节运算的电脑已经很常见了,而且便宜,还很小。

除了存储和处理数据的能力之外,我们现在还能够生成数据。在80年代,大多数摄影都是胶片的。而现在这些照片都是数码的,其中很多都是在线存储在Flickr,Google Photos,Apple Photos,Facebook等服务中。许多在线照片已经标有一些描述性文字,使其成为训练人工智能系统的一个非常理想的数据集。我们的许多对话也通过Facebook,Twitter和许多聊天服务在线进行。和我们的购物历史一样。因此,我们(或更准确地说是,谷歌,苹果,雅虎,Facebook,亚马逊等)拥有培训人工智能系统所需的数据。

我们在算法方面也取得了重大进展。神经网络并不是特别新颖的算法,但“深度学习”是由一系列网络算法叠加而成的,并通过反馈进行网络算法自动训练。因此,深度学习试图解决机器学习中最难的人类问题之一:从数据中学习最佳表示和特征。处理大量数据很容易,但特征学习更像是一门艺术,而不是一门科学。深度学习使一些艺术自动化了。

我们不仅在算法方面取得了进步,而且算法也在广泛使用的库中实现,例如Caffe,TensorFlow,Theano,Scikit-Learn,MXNet,CNTK等。人工智能不仅限于学术界的计算机可以研究人员; 正如Pete Warden所表明的那样,任何人都可以参与其中。你不需要知道如何实现一个复杂的算法,并使其在你的硬件上运行得相当好。你只需要知道如何安装库和标记训练数据。就像电脑革命本身发生在计算机离开机房进入普通大众生活的时代一样,同样的民主化进程正在人工智能领域引发了一场革命。当来自许多背景和环境的人们尝试人工智能时,我们会看到新的应用。有些看起来像科幻小说中的一样(虽然自动驾驶汽车在几年前还像是科幻小说);但是肯定会产生一些我们意想不到的新应用。

构建知识数据库

这个世界充满了“暗数据”:也就是非结构化的信息,它们并不是存在于良好有序的数据库中。它在网站上,埋在桌子里,珍藏在照片和电影中; 但它并不会很容易的被机器智能或者其他智能访问到。像项目diffbot和deepdive使用半监督学习在非结构化数据中找到了结构数据,无论是大量的科学论文还是许多网站的碎片。一旦创建了数据库,就可以通过更传统的工具访问该数据库,无论是API,SQL语句还是桌面应用程序。

知识数据库和图表已经在许多智能应用程序中使用,包括Google的知识图。随着我们转向对话应用程序,挖掘暗数据并在其中找到结构的能力将变得更加重要。有效地使用暗数据将是从脚本和狭隘目的聊天应用程序转移到可以采取任意问题并向用户返回答案的应用程序的关键。我们可能不会看到这样的应用程序“理解”这个问题,但这样的应用程序将成为未来辅助技术的核心。而且他们将依赖于机器获取和构建的知识数据库:所涉及的大量数据将超出人类的标记能力。

产生的结果

与人工智能寒冬的黑暗时期不同,当数据有限且计算机速度较慢时,我们看到各处都有成功的人工智能系统。Google翻译远不如人工翻译,但它经常为你提供有用的翻译。尽管语音识别系统还没有像现在这样受到广泛的关注,但它也很常见,并且令人惊讶的准确; 一年前,谷歌声称Android手机可以正确理解92%的问题。鉴于计算机可以正确地将问题转换为文本,下一步是将该问题转化为答案。

类似地,图像识别和图像处理已经变得司空见惯。尽管有一些广为人知的令人尴尬的错误,但计算机视觉系统可以识别人脸,这在几年前是完全无法想象的。当然,正确的约束问题在这一成功中扮演了重要角色:Facebook可以识别照片中的面孔,因为它假设照片中的人可能是你的朋友。计算机视觉是(或将是)人工智能的许多应用的核心,从世俗到可怕。视觉显然对自动驾驶汽车至关重要; 它对于监控,自动瞄准无人机以及其他让人不舒服的应用来说都是非常重要的。

深度学习和神经网络在过去一年中引起了很多关注:它们在计算机视觉,自然语言处理和其他领域都取得了进步。然而,几乎所有属于机器学习范畴的东西都是人工智能:分类和聚类算法,各种决策树,遗传算法,支持向量机,分层时间记忆等等。这些技术可以单独使用,也可以与其他技术结合使用。IBM的Watson是集成学习的一个很好的例子:它是一个基于规则的系统,它结合了许多其他算法,具体取决于它正在解决的问题。这些规则在很大程度上是手工编写的,其他算法需要经过精心调整才能获得良好的效果。

尽管Watson令人印象深刻,但需要大量手动调整的系统充其量只是迈向智能的垫脚石。任何通用的人工智能和大多数的弱人工智能都可能结合许多算法,而不是使用单一且尚未发现的主算法。但是想要取得好的结果,那调优就是一个主要的限制:AlphaGo团队的领导者Demis Hassabis 说道,调优“几乎就像一种艺术形式。”如果获得好的结果需要多年的努力,而且只有少数专家(Hassabis说只有几百人)能够做到这一点,那么这是否真的是“人工智能”。像Watson这样的引擎是科学,但它也需要很多艺术。此外,对手动优化的需求表明,以这种方式构建的人工智能本质上是狭窄的,旨在解决单个问题。很难想象优化可以将其变为处理任何问题的“通用智能”引擎。如果你正在进行优化,那么对于某些特定应用,你几乎肯定会针对某些内容进行优化。

人工智能的进步是依赖于更好的算还是依赖于更好的硬件?如果这个问题是有意义的,那么这个问题的答案就是“两者都需要”。尽管时钟速度已经停滞不前,但我们在芯片上投入越来越多的能力并没有停滞不前:AlphaGo的280个GPU意味着200,000个核心。但更重要的是,我们已经看到了需要使用GPU的数学库和工具的改进。我们还可以在未来的人工智能引擎中看到ASIC和FPGA(应用特定的集成电路和现场可编程门阵列)的使用。反过来,ASIC和FPGA对于将人工智能嵌入硬件系统至关重要,其中许多(想想自动驾驶汽车)将需要软件的硬实时运行。

但即使硬件更好,我们仍然需要能够分布在数千或数百万个节点上的算法; 我们需要能够动态重新编程FPGA的算法,以使硬件适应他们正在解决的问题。MapReduce在数据分析中变得流行,因为它提出了一种并行化处理大量问题的方法。并行性显然适用于人工智能; 但它的极限是什么?并行性的一个难点是程序中无法并行化的部分会杀死你。大多数并行算法的标志是需要一个收集部分结果并生成单个结果的阶段。AlphaGo在计算下一步行动时可能会考虑数以千计的替代方案; 但在某些时候,它需要考虑所有的替代方案,评估哪个是最好的,并提出一个结果。AlphaGo可以利用280个GPU; 那一台280,000的机器怎么样?毕竟,到目前为止我们建立的最大的人工智能系统只是老鼠大脑大小的一小部分,更不用说人脑了。那些不适合并行性和神经网络的算法呢?如何在管道中的每个元素采用不同方法解决问题的系统中如何应用反馈?像这样的问题可能会在不久的将来推动人工智能研究。

在人工智能算法上投入更多(和更快)的硬件,可能会让我们更好的去玩围棋,国际象棋和Jeopardy。我们将能够更好更快地对图像进行分类。但这是我们目前可以解决的问题的改进。更多的计算能力会使我们从监督转到无监督学习吗?它会导致我们从弱人工智能到强人工智能吗?这还有待观察。无监督学习是一个难题,目前还不清楚是否可以通过增加硬件来解决这个问题。我们仍在寻找可能不存在的“主算法”。

道德与期货

人类很容易被超出人类的智慧吓到。而且,根据一些人的说法,现在是时候决定我们希望我们的机器做什么了,趁现在为时不晚。虽然这个位置可能过于简单,但很难考虑限制我们无法构建的设备,以及我们现在无法想象的功能,并且可能永远无法理解的设备的能力。说“不“也很困难,因为我不知道还有什么技术还没有被发明出来,因为人们对一些技术做了充分的考虑。在历史的不同时期,人们害怕现在许多已经司空见惯的技术:许多人认为每小时行驶60英里以上会是致命的。苏格拉底反对写作因为他认为这会导致健忘:想象一下他会如何看待我们的技术!

但我们可以考虑人工智能的未来,以及我们将如何开发帮助我们的机器。以下是一些建议:

对超级智能人工智能的恐惧并不是对我们既不了解也无法理解的机器的恐惧。他们是对人性最坏的一面加上无限的力量的恐惧。我们想象的机器不会思考我们无法理解的思想; 我们想象一个不可战胜的希特勒或斯大林,他们的想法我们可以理解。我们的恐惧本质上是人类的恐惧:害怕无所不能的机器像人类那样行动。

这并不是要贬低我们的恐惧,因为我们已经看到机器学习确实在向我们学习。微软的Tay是一个非常完美的人工智能对话机器人的例子,但是不幸的是,它在网上交流的人那里“学习”了种族主义和偏见。谷歌的图像分类将黑人夫妇称为“大猩猩”是测试不佳和训练集没有足够正确标记的结果。机器学会像人类一样学习种族主义:因为无论是有意还是无意,都是我们教导他们这样做的。这是一个人类的问题,而且它是一个可以解决的问题。我们可以更加小心我们的人工智能学习的内容和方式。我们可以更加小心我们的训练集中的内容,这些训练集是如何标记的; 我们可以过滤我们认为可以接受的答案。这一切都不是非常困难; 但是这是必须要完成的。在当前的环境下,更困难的是达成一个共识,那就是种族主义和仇恨是不可取的。

这是人类价值观的问题,而不是机器智能的问题。我们可以构建反映我们价值观的机器:并且我们已经这样做了。它们是我们想要反映的价值吗?白宫关于数据科学,大风险,大机遇的报告:《大数据和公民权利的交叉》中,最后有一节关于如何审核算法以“确保人们得到公平对待”的必要性。随着我们从从“大数据”转向人工智能,需要审核我们的算法并确保它们反映我们支持的价值观的需求只会增加不会减少。

对人工智能的研究应该对公众开放和公开,这是必须的。并不是因为我们相信公众会更少“害怕”公开的研究(可能是也可能不是),也不是因为公众会以某种方式“习惯”超级智能的观念; 而是因为比起公开进行的研究,人们更关注于那些在幕后进行的研究。确实,不道德的研究表明创建一个健康的AI生态系统的最佳方法是发布创建恶意机器的想法。研究将继续在幕后进行; 如果认为军事研究和情报部门不致力于人工智能,那么真是太天真了。但是,如果公共领域也没有进行人工智能研究,那么我们将受到该研究的支配。(Google或Facebook等组织是否构成“闭门造车”或“在公众视野中进行研究”是一场值得讨论的辩论。)这就是OpenAI的重点:“以最有可能使整个人类受益的方式推进数字智能,不受产生财务回报的需求的限制。”OpenAI对人工智能的恐惧是一个引人注目且令人惊讶的答案:尽可能推动人工智能研究向前发展,但在公共场合,确保公共领域仍然领先于封闭的人工智能。

研究的开放性和公共领域也很重要,因为研究的起源往往决定了它的应用。核能就是一个很好的例子。建造安全、高效的钍燃料核反应堆是可能的。但是钍反应堆从来没有建造过,因为它们不能帮助你制造炸弹,而且核能的研究是在国防部的控制下进行的。一个不产生可用数量钚的反应堆?为什么有人想要那个?再一次,认为军方和国家情报部门不会进行出色的人工智能研究的想法是天真的。但如果人工智能研究成为军方唯一的研究领域,那么我们将拥有出色的自动瞄准无人机; 如果人工智能研究成为国家情报机构的唯一研究领域,我们将拥有出色的系统来暗中监听和理解对话。我们的想象力将限制人工智能可能为我们做些什么,除了武装无人机以及监听的警惕之外,我们将无法研发出智能医疗系统和机器人护士助手。

如果我们希望人工智能为人类服务,那么它必须在公开的情况下发展它:我们必须小心,不要制造我们自己最糟糕的噩梦; 但我们需要意识到,噩梦真的只是我们自己更强大的版本。

永远在未来

马马克·扎克伯格(Mark Zuckerberg)最近表示,在5到10年内,人工智能将在最基本的任务上超越人类。他可能是对的,但很明显,他说的是狭隘的智能:特定的任务,比如语音识别、图像分类,当然还有玩游戏。他继续说:“这并不意味着电脑会思考……“根据你和谁交谈,真正的一般智能是10到50年后的事。考虑到预测技术未来的难度,最好的答案是“10年以上”,甚至更长时间。什么时候才能实现人机智能(HLMI) ?最近的一项专家调查显示,HLMI将在2040-2050年间的某个时候发生(50%的可能性)。正如扬·勒存(Yann LeCun)所说,“人类水平的人工智能还需要几十年的时间发展。”

那么,我们什么时候才能发展到哪里呢?几年前,杰森哈金斯(Jason Huggins )对机器人做出了有先见之明的评论。他说,机器人永远在未来。有时机器人学的碎片会断裂并成为现在的一部分; 但是当这种情况发生时,它们就不再被认为是机器人了。在20世纪20年代,我们会认为现代洗碗机是一种超级智能机器人; 现在,它只是一个洗碗机。

同样的情况也将不可避免地发生在人工智能领域。事实上,这已经发生了。我一直避免区分机器学习和人工智能;“机器学习”是一个术语,在人工智能声名狼藉的时候,它被用来形容人工智能研究中的一些想法。现在,这些想法中有很多都是司空见惯的。我们不会再三考虑亚马逊的推荐或GPS导航系统;我们认为这是理所当然的。我们可能会觉得Facebook和谷歌标记照片的能力令人毛骨悚然,但我们并不认为看到的是人工智能。所有认真的棋手都要针对国际象棋程序进行练习;刚开始玩围棋的人也是如此,AlphaGo成功后,对抗电脑的练习肯定会扩展到专家。这些人工智能已经脱离了我们的世界,成为我们世界的一部分。在此过程中,人工智能演变成了IA(智能增强):超越人类能力的自主技术变成了辅助技术。

我们能指着某样东西说“是的,那是人工智能”吗?是的,当然,我们现在就能做到。更重要的是,我们不可避免地会被人工智能包围,甚至在我们意识到之前就被它包围。我们认为管道是理所当然的;我们认为电是理所当然的;我们的孩子认为流媒体音乐是理所当然的。我们将人工智能视为理所当然,即使它已经成为我们生活中更重要的一部分。

原文链接https://oreilly.com/ideas/what-is-artificial-intelligence

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值