【科技讯】4月27日消息,今天,2017年全球移动互联网大会(GMIC)在北京国家会议中心举行。著名物理学家斯蒂芬·霍金通过视频发表演讲,谈到了被人们视作未来的人工智能技术,在题为《让人工智能造福人类及其赖以生存的家园》主题演讲中,霍金表示,人工智能的崛起可能是人类文明的终结。
霍金此前就谈坦白过对人工智能威胁人类的担忧,今年3月份,霍金向英国《独立报》表示,人类必须建立有效机制尽早识别威胁所在,防止人工智能对人类带来的威胁进一步上升。霍金在会上表示,人工智能的威胁分短期和长期两种。短期威胁包括自动驾驶、智能性自主武器,以及隐私问题;长期担忧主要是人工智能系统失控带来的风险,如人工智能系统可能不听人类指挥。他还认为,生物大脑和计算机在本质上是没有区别的。这与英国物理学家罗杰·彭罗斯的观点恰恰相反,后者认为作为一种算法确定性的系统,当前的电子计算机无法产生智能。不过,霍金也表示,虽然他对人工智能有各种担忧,但他对人工智能技术本身还是抱有乐观的态度。他认为人工智能带来的收益是巨大的,人类或许借助这一强大的工具,可以减少工业化对自然的伤害。“但我们不确定我们是会被智能无限地帮助,还是被无限地边缘化,甚至毁灭。”他补充道。
霍金在演讲的最后说道:“这是一个美丽但充满不确定的世界,而你们是先行者。”
以下为霍金演讲全文(中文版):
在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。简单来说,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。我不得不说,是好是坏我们仍不确定。但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。我们别无选择。我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。
人工智能的研究与开发正在迅速推进。也许我们所有人都应该暂停片刻,把我们的研究重复从提升人工智能能力转移到最大化人工智能的社会效益上面。基于这样的考虑,美国人工智能协会(AAAI)于2008至2009年,成立了人工智能长期未来总筹论坛,他们近期在目的导向的中性技术上投入了大量的关注。但我们的人工智能系统须要按照我们的意志工作。跨学科研究是一种可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有人工智能本身的各个分支。 文明所提产生的一切都是人类智能的产物,我相信生物大脑可以达到的和计算机可以达到的,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。但我们并不确定,所以我们无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。的确,我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。 在人工智能从原始形态不断发展,并被证明非常有用的同时,我也在担忧创造一个可以等同或超越人类的事物所导致的结果:人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,一个与我们冲突的意志。尽管我对人类一贯持有乐观的态度,但其他人认为,人类可以在相当长的时间里控制技术的发展,这样我们就能看到人工智能可以解决世界上大部分问题的潜力。但我并不确定。