人工智能(A.I.)的几个常见基础定义及发展概述

人工智能简称AI。根据维基百科给出的定义,所谓AI,就是根据环境感知,做出合理的行动,并获取最大收益的计算机程序。

这个定义笼统的描述了AI的含义,可是却太过于空泛,不懂的人看了依旧不懂。那么下面,就从多个维度给出在不同年代,不同层级中AI的具体定义。

定义一:AI(人工智能)就是令人感到不可思议的计算机程序
人工智能就是机器可以完成人们认为机器不可能完成的事情——这个定义很直观也很有趣,但这种为经验论的定义缺乏一致性,会因为时代的不同,背景的不同,判断者的经验不同而套用不同的标准。这样的一个定义反映出大时代背景下,大多数普通人对于人工智能的认知方式。

定义二:AI就是与人类思考方式相仿的计算机程序
这是人工智能发展早期的定义方式,AI就是能遵照思维里的逻辑规律进行思考的计算机程序。从根本上讲,这是一种类似仿生学的直观思路。让计算机中的人工智能程序遵循逻辑学的基本规律进行运算是许多早期人工智能研究者的最大追求。世界上第一个专家系统程序Dendral(lisp语言编写)是一个成功的用人类专家知识和逻辑推理规则解决一个特定领域问题的例子,其可以帮助有机化学家根据物质光谱推断出未知有机分子的结构。

Dendral的成功事实上带动了专家系统在人工智能领域的广泛应用;一时间专家系统成为了人工智能的代名词,其热度不亚于今天的深度学习。

Dendral的成功依赖于人类知识库和逻辑学规则。但人们很快发现了此类系统的局限性,这样的专家系统很难被推广到宽广的知识领域,更别提日常生活。面对统计模型、深度学习等技术专家系统毫无优势,因此从上个世纪90年代变备受冷落。

以上我们介绍了从逻辑学角度发展的人工智能,下面我们来说说从生物学角度发展的人工智能。

按照大脑的工作原理构建的计算机程序,即神经网络。早期神经网络技术由于多种原因发展没多久便陷入低谷。上世纪80年代人工神经网络的理论难题得到解决,90年代随着计算机运算能力的大幅提升,神经网络再次成为人工智能领域的研究热点。本世纪10年代起,支持神经网络的计算机集群开始得到广泛运用,供深度学习系统训练使用的大规模数据集也越来越多。神经系统这一仿生学概念在人工智能的新一轮复兴中扮演了至关重要的核心角色。

定义三:AI是会学习的计算机程序
20世纪80到90年代,人们在专家系统和统计模型间摇摆不定;

2000到2010间,机器学习开始爆发竟然威力,并最早在计算机视觉领域实现惊人突破;

2010至今,使用深度学习的图形算法显著降低了对象识别、定位的错误率;语言识别依靠深度学习提高了49%的性能;机器翻译、机器写作等领域也因深度学习而获得大幅改进。

微软的Alpha go因为学习了大量专业棋谱而得以战胜人类世界冠军;微软小冰因为学习了大量互联网流行语句而得以时尚活泼的与用户交流;Xiaomi公司研发的小爱同学因为基于庞大用户群体的“人工智能训练计划”而得以与使用者长时间连续无障碍沟通。

目前机器学习和人类学习还有较大差别。机器学习需要大规模的训练数据,而人类学习则不需要。总体上讲现阶段计算机的学习水平并不如人类,其缺少抽象和归纳能力。

所以说人工智能想要战胜人类,在现阶段无异于天方夜谭。


那人工智能是怎么发展到今天的程度呢?这还得从上个世纪五十年代说起…

第一次AI技术热潮——图灵测试(理论革新)
1950年图灵发表了一篇名为《Computing Machinery and Intelligence》的论文,文章中探讨了什么是人工智能,并提出了用于测试人工智能的著名实验“图灵测试”。

测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。进行多次测试后,如果机器让平均每个参与者做出超过30%的误判,那么这台机器就通过了测试,并被认为具有人类智能。

1966年,Joseph教授发明了一个可以与人对话的小程序——ELIZA(一个可以用于治疗精神疾病的聊天程序)。ELIZA可以像人一样与病人一聊就是好几十分钟,很多病人甚至特别愿意与其聊天。然而ELIZA的程序逻辑非常简单,就是在一个相当有限的话题库中,用关键字映射的方式根据病人的问话而找到自己的答案。由于该程序本身并不能了解用户所说语言的真实含义,所以其还会使用大量引导性问句,例如“为什么”“请详细解释一下”,来让用户误以为程序理解了自己所表达语句的含义。ELIZA可以看做人们第一次实现聊天机器人的尝试。

第二次AI技术热潮——语音识别(思维转变)
20世纪80到90年代的AI热潮中,语音识别是当时最具代表性的项目。

过去的语音识别更多的是专家系统,即根据的是语言学的知识,总结出语音和英文音素,再把每个字打开成音节与音素,让计算机用人类学习语言的方式来学习语言。在研发过程中,计算机工程师与科学家围绕着语言学家进行工作。而新的方法是基于数据的统计建模,抛弃了模仿人类思维方式总结思维规则的老路,研发过程中没有或极少语言学家的参与,更多的是计算机科学家与数学家的合作。这其中的转变看似容易,其实面临着人类既有观念和经验的极大阻力。最终,专家系统寿终正寝,基于数据统计模型的思想开始广泛传播。

随着时代的发展,今天语音识别和更广泛意义上的自然语言处理已经走进了统计方法与深度学习方法相结合,甚至是深度学习起主导作用的新时代。

第三次AI技术热潮——深度学习+大数据
从根本上说,深度学习是一种用数学模型对真实世界中的特定问题进行建模,以解决该领域内相似问题的过程。但不为人所知的是,深度学习的历史几乎和人工智能一样长,只是一直默默无闻,直到它等到了时代的机遇。首先,计算机的计算性能和处理能力大幅提高。符合摩尔定律而指数级增长的计算机性能最终跨过了门槛。

其次,互联网的蓬勃发展为搜索引擎等公司带来了高质量的大数据。并且正是因计算机性能的提高人们得以储存和利用这些数据。可以说在第三次热潮中,深度学习+大数据=人工智能。


*文章内容整理自网络资料

  • 3
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值