人工智能(AI)经历了怎样的发展历程?

      2015年3月,随着Google Deepmind开发的AlphaGo程序打败了韩国职业围棋高手李世石(Lee Se-dol),媒体在通稿中开始普遍使用“AI”“机器学习”和“深度学习”这样的字眼,“AI”也迅速成为人们茶余饭后的热门话题,AI技术相关的企业如雨后春笋般迅速崛起,至今依然是投资市场上十分风靡的版块。然而,AI的历史却远比AlphaGo悠久得多。通常,一项新技术的出现都会经历“Gartner曲线”(技术成熟度曲线),经历促动期、峰值期、泡沫期、稳步爬升期、实质生产期,然而AI的发展历程却颇具戏剧化,经历了“三起两落”。

 

      早在1956年的达特茅斯会议(Dartmouth Conference)上,约翰·麦卡锡(John McCarthy)、马文·闵斯基(Marvin Minsky,人工智能与认知学专家)、克劳德·香农(Claude Shannon,信息论的创始人)、艾伦·纽厄尔(Allen Newell,计算机科学家)、赫伯特·西蒙(Herbert Simon,诺贝尔经济学奖得主)等科学家聚在一起,讨论着一个完全不食人间烟火的主题:用机器来模仿人类学习以及其他方面的智能,目的是让逐渐成熟的计算机能够代替人类解决一些感知、认知乃至决策的问题。这一年也被认为是人工智能元年。这个议题是如此令人神往,吸引了一大批学者进行研究,这是第一“起”。

 

      人工智能最初采用的方法是专家编制规则,教机器人认字、语音识别,但是人们没能很好地总结提炼出人类视听功能中的规律,因此在机器学习的转化上效果并不好,结果事与愿违,人工智能也在残酷的现实中走向下坡。

 

      由于,人为指导这条路行不通,人们开始另辟蹊径,把目光投向了基于大量数据的统计学方法。于是,人工智能在人脸识别等一些较简单的问题上取得了重大进展,在语音识别上也实现了基本可用。人工智能初见成效,这是第二“起”。

 

      然而,基于大数据的统计学方法很快遇到了瓶颈,因为单纯依靠数据积累并不能无限地提高准确率。从“基本可用”到“实用”之间出现了一道难以逾越的鸿沟,十几年都没能跨过。人工智能再次没落。

 

      直到2006年,加拿大多伦多大学的计算机系教授杰弗瑞·辛顿(Geoffrey Hinton)在《科学》上发表一篇关于深度学习的文章,人们又重新看到了人工智能的希望。随着GPU(图形处理器)的广泛使用,计算机的并行处理速度大幅加快、成本更低、功能更强大,实际存储容量无限拓展,可以生成大规模的数据,包括图片、文本和地图数据信息等,人工智能迎来了新的生机,于是,AlphaGo的胜利顺理成章。

 

      然而,AlphaGo实际上只是人工智能界的一个小学生,仍然属于“弱人工智能”(Narrow AI)。它可以像人类一样完成某项具体任务,也有可能比人类做得更好。但它并不是真正拥有智能,也不会有自主的意识。例如Pinterest利用人工智能给图片分类,Facebook利用人工智能进行面部识别等。麦卡锡在达特茅斯会议上提出的AI,一般指的就是“弱人工智能”。与“弱人工智能”相对的,是“强人工智能”(General AI),指的是机器拥有像人类一样的感知能力,甚至还可以超越人类的感知,它可以像人类一样思考,就像电影中的终结者。当机器智能超越人脑智能的那一刻,也就实现了机器智能与人脑智能的融合,美国未来学家雷蒙德·库兹韦尔(Raymond Kurzweil)称之为“奇点”(Singularity),时空中的物理规律将不再适用。不过,就目前为止,科学家普遍达成的共识是,我们仅仅实现了弱人工智能的一小部分。

 

  • 接下来的文章里面会介绍些“机器学习”、“深度学习”、“有监督机器学习”和“无监督机器学习”相关的内容。

 

展开阅读全文

没有更多推荐了,返回首页