《人工智能》

人工智能的概念与定义

  •   人工智能 是研究、开发用于模拟、延申和扩展人的智能的理论、方法、技术及应用系统的 一门新的技术科学

  • 人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科。

  • 主要包括计算机实现智能的原理制造类似于人脑智能的计算机,使计算机能实现更高层次的应用。

人工智能分类

  • 弱人工智能 ANI

        1 : 根据人类设计的某种算法依托计算机进行基本逻辑推理(Reasoning)和解决某种特定问题(Problem-solving)的智能

        2 :   弱人工智能在某一方面表现出智能,但是不具有与人类相当的智力水平和思维模式。

        3 :   例如弱人工智能可以用于文本理解、图像识别、语音识别、知识关联等,但是只能程式地部分替代人类对图像或声音的辨别和处理。虽然机器逐渐具备了所谓的学习能力,但它们只会在各自的领域内学习,而不会像人类一样具有好奇心,也不会自主地探索新的技术和方法。这些机器只不过看起来是智能的,但是并不真正拥有智能,也不具有自主意识。

  • 强人工智能 AGI

   1:也叫通用人工智能(General Artificial Intelligence)或完全人工智能(Full AI)

   2 : 可以胜任人类所有工作的人工智能,能够进行思考计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习

   3 : 具备在存在不确定性因素时进行推理、使用策略、解决问题、制订决策的能力、使用自然语言进行交流沟通的能力及将上述能力整合以实现既定目标的能力。

  • 超人工智能 ASI

        1: 是随着科学技术的不断发展和协同工作,让计算机创造出一种在科学创新、通识和社交技能等方面都比人类大脑聪明很多的智能。

        2 : “超人工智能寄托着人类美好的愿景但不一定能够达到的目标。

  • 弱人工智能应用

弱人工智能为人类的生活带来了极大的便利,“弱人工智能”代表了人工智能的主流,在相当长一段时间内引领行业发展:

1 :AlphaGo 围棋机器人在围棋领域一点也不弱;

2 :  人脸识别技术可以在密集人群中一眼就发现目标人物;

3 :  扫地机器人可以自动打扫房间的各个角落,并且在电量不足时自行找到充电桩充电;

4 : 自动驾驶汽车可以处理路况,并且自行到达目的地

人工智能三大学派

在人工智能的整个发展过程中,不同学科背景的研究人员对人工智能有不同的理解,因此也形成了人工智能的三大发展学派

  传统的人工智能被称为(Symbolicism)符号主义学派: 主要研究基于逻辑推理的智能模拟方法。

(Connectionism)连接主义学派 : 可通过模拟大脑的神经网络结构结合脑认知原理实现。

(Actionism) 行为主义学派 : 从仿生学及生物体与环境互动的模式中寻找答案。

符号主义学派

渊源:

人工智能源于数理逻辑
数理逻辑从19世纪末得以迅速发展,到20世纪30年代开始用于描述智能行为,在计算机上实现了逻辑演绎系统。其中有代表性的研究成果为启发式程序逻辑理论家 LT(Logic Theorist),它证明了38条数学定理,表明可以应用计算机研究人的思维过程来模拟人类智能活动。
在1956年的美国达特茅斯会议上首次提出“人工智能”术语的科学家大多数源于符号主义者学派。

成就:

符号主义学派发展了 启发式算法 ——> 专家系统 ——> 知识工程理论与技术。在20世纪80年代取得很大进展。
专家系统的成功开发与应用,为人工智能走向工程应用和实现理论联系实际具有特别重要的意义
基于大数据知识工程的 知识图谱 (Knowledge Graph)是符号主义学派人工智能 代表性应用成果。

代表人物:

纽厄尔(Newell)、西蒙(Simon)、尼尔逊(Nilsson)

索引:

           大数据时代,由于有了前所未有的算力和数据,有着花样繁多的模型、大规模的众包平台及高质量的用户内容,这使得自动化知识获取、自动化的知识图谱构建成功成为可能。

          知识图谱首先是一种大规模知识表示,所以它通常包含海量的实体,往往是数以亿计。大规模也体现为多样的关系,以及成千上万的关系。

          知识图谱解决了语言表达鸿沟问题,并补全了缺失的因果链条。通过建设大量词汇知识图谱,包含领域的同义词、缩略词、上下位词等关系,可以有效解决语言表达的鸿沟问题,实现精准信息推送——带有密集的专家知识、有限的数据资源和深度的知识应用等特点。

          在知识图谱的带动下,自然语言理解(Natural Language Processing, NLP)取得了飞速进展并获得了长足的进步,出现了知识问答,自动客服,智慧司法,答题机器人等各种更高智能的应用形式。

连接主义学派

渊源:

每个人的大脑都有上百亿个神经元细胞,它们错综复杂地相互连接,也被认为是人类智慧的来源,所有人们很自然想到能否通过大量神经元来模拟人类大脑的智力。基于此,“连接主义”研究者认为 神经网络和神经网络间的连接机制和学习方法能够产生智能。
20世纪60 - 70年代,连接主义对以感知机(Perceptron)为代表的脑模型的研究出现过热潮。
受当时理论模型、生物原型和技术条件的限制,脑模型研究在20世纪70年代后期至80年代初期落入低潮。

直到美国 John J. Hopfield 教授 在 1982年和1984年发表的两篇重要论文,提出用硬件模拟神经网络后,连接主义重新引发关注。

成就:

1986年,鲁梅尔哈特(Rumelhart)等提出多层网络中的反向传播算法(Back Propagation,BP)算法。此后又有卷积神经网络(Convolutional Neural Networks, CNN)的研究,连接主义重新焕发生命力,从模型到算法,从理论分析到工程实现,为基于神经网络的人工智能走向市场打下基础。

2006年,Hinton在 Science 和相关期刊上发表了论文,首次提出了深度信念网络(Deep Belief Network, DBN)的概念,将深度学习推向学术界,并成为当前人工智能领域非常热门的研究方向,当前,人工智能领域所取得的大量应用和突破性进展都是基于深度神经网络并结合大数据和高性能计算技术而取得。

行为主义学派

渊源:

“行为主义”研究者认为人工智能源于控制论。 控制论把神经系统的控制过程中的智能行为和作用,比如对自寻优、自适应、自镇定、自组织和自学习等控制论系统的研究,并进行“控制论动物”的研制。
到20世纪60-70年代,上述这些对控制论系统的研究取得一定进展,播下智能控制和智能机器人的种子,并在20世纪80年代诞生了智能控制和智能机器人系统。

成就:

当前行为主义人工智能研究走在世界前列的无疑是波士顿动力(Boston Dynamics)机器人

人工智能起源与发展

人工智能发展史

6个阶段

起步发展阶段

1956年 - 20世纪60年代初。人工智能概念提出后,相继取得了一批令人瞩目的研究成果,如 机器定理证明、跳棋程序等,掀起了人工智能发展的第一个高潮。

反思发展阶段

20世纪60 - 70年代初。人工智能发展初期的突破性进展大大提升了人们对人工智能的期望,人们开始尝试更具挑战性的任务,并提出了一些不切实际的研发目标。然而,接二连三的失败和预期目标的落空。例如:无法用机器证明两个连续函数之和还是连续函数、机器翻译闹出笑话等,使人工智能的发展走入低谷。

应用发展期

20世纪70年代初 - 80年代中。 20世纪70年代出现的 专家系统 模拟人类专家的知识和经验解决特定领域的问题,实现了人工智能从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破。专家系统在医疗、化学、地质等领域取得成功,推动人工智能走入应用发展的新高潮。

低迷发展期

20世纪80年代中 - 90年代中。 随着人工智能的应用规模不断扩大,专家系统存在的 1 :应用领域狭窄; 2 : 缺乏常识性知识; 3 : 知识获取困难;  4: 推理方法单一; 5:缺乏分布式功能; 6: 难以与现有的数据库兼容等问题逐渐暴露出来。

稳步发展期

20世纪90年代中 - 2010年。由于网络技术特别是互联网技术的发展,加速了人工智能的创新研究,促使人工智能技术进一步走向实用化。 1997年国际商业机器公司(IBM)深蓝超级计算机战胜了国际世界冠军卡斯帕罗夫, 2008年IBM提出了“智慧地球”的概念等都是这一时期的标志性事件。

蓬勃发展期

2011年至今。随着大数据、云计算、互联网、物联网、智能手机、北斗定位、5G通信等新一代信息技术的发展,泛在感知数据和图形处理器等计算平台推动以深度神经网络为代表的人工智能技术飞速发展,大幅跨越了科学与应用之间的“技术鸿沟”,诸如图像分类、语音识别、知识问答、人机对弈、无人驾驶等人工智能技术实现了从“不能用、不好用”到“可以用”的技术突破,迎来了爆发式增长的新高潮

3次人工智能浪潮

人工智能发展趋势

新一代人工智能的驱动因素

总序:

本轮人工智能是一种全新的人工智能,是对我们的生产生活进行全新革命的人工智能

主导新一轮人工智能发展的 主力军: 以深度学习(Deep Learning, D L)为代表的人工智能异军突起,在计算机视觉、自然语言处理等领域取得了很好的效果。

大数据(Big Data)的发展为深度学习注入了新的“燃料”,极大地提高了深度学习的智能水平

计算能力的提升促进了深度学习模型的训练效率,成为推动新一代人工智能发展的主要驱动力

移动互联网与智能手机的结合为新一代人工智能插上腾飞的翅膀,产生了全新的应用,如语音购物、人脸支付、视频理解、自然语言处理、无人超市、自动驾驶等。

数据量爆炸性增长

随着物联网、移动互联网、云计算、大数据等新一代信息技术的快速发展与普及,使得以前制约人工智能发展的瓶颈得以解决。

物联网、移动物联网

提高了数据的获取效率,使得人类每时每刻都可以产生并捕获、传输、存储和管理前所未有的海量数据,各行各业产生的数据呈爆炸性增长。

云计算 

为大数据提供了精准分析和弹性计算能力,并可输出有实际价值的信息。

大数据

为基于数据训练的人工智能提供了数据来源

计算能力大幅提升

人工智能算法的实现需要强大的计算能力作为支撑。

CPU vs GPU

  • 与传统以串行处理为主的CPU不同,GPU的设计更适用于进行并行计算
  • CPU包含几个专为串行处理而优化的核心,而GPU则由数以千计更小、更节能的核心组成,这些核心专为提供并行计算能力而设计。
  • GPU的并行计算能力可同时处理人工智能算法所需的大量数据,从而大大提升计算效率。

GPU缩短了深度学习的训练周期,从而加速人工智能产业发展进程

随着GPU技术的发展,为模拟人脑计算能力所构建的神经元网络连接的数目出现巨大增长。

以语音识别为例,深度学习所需样本量在十亿量级,采用CPU单机需要几年才能完成一次训练,而GPU只需数周就能完成。

当前还出现了专门为深度学习训练用的专用计算芯片,如 TPU ( TensorFlow Processing Unit ) 芯 片 。 TPU 是 谷 歌 为 训 练 TensorFlow深度学习模型而推出的专用处理器,它可以在神经网络运 算上达到高计算吞吐量使深度学习模型运行更快,同时能耗和物理空间都很小。

深度学习等算法发展

计算能力的提升和数据规模的增长,使得深度学习、强化学习 (Reinforcement Learning,RL)、迁移学习(Transfer Learning, TL)等算法发展起来。这些算法广泛应用于计算机视觉、语音识别、 自然语言处理等领域并取得丰硕的成果。技术适用的领域大大拓展, 从而越来越多复杂和动态场景的需求得到了满足。

深度学习:可以让人类通过自然语言和视觉两种方式与人工智能沟通。

强化学习:让智能系统从环境到行为映射地学习,以使强化信号函数值最大。

迁移学习:可以将已经学到的模型参数(也可理解为模型学到的知识)通过某种方式来分享给新模型,从而加快并优化模型的学习效率。

移动 AI 创新应用牵引

移动互联网与智能手机的结合催生了移动应用App时代到来。微机电系统(Micro-Electro-Mechanical System,MEMS)技术集微传感器、微执行器、微机械结构、微电源微能源、信号处理和控制电路、 高性能电子集成器件、接口、通信等于一体,使得加速度计、话筒、 微发动机、微泵、微振子、光学传感器、压力传感器、陀螺仪、定位模块等传感器变得小巧、精密、可靠、节能,从而为手机搭载更多传感器,让手机变得更加小巧、更加智能。低功耗嵌入式处理器运行速 度的不断提高为智能手机提供更加强劲的处理能力,从而让智能手机具有独立的操作系统,独立的运行空间,可以由用户自行安装各类智能App。

移动互联网的进步和智能手机的出现,为各种基于个性化、移动化、智能化的应用和服务提供了可能,人类曾经梦寐以求的手机导航、移动支付、网约打车、共享单车、语音购物、AR教育、智能识 花、健康管家、虚拟主播、短视频娱乐等各类智能产品、智能服务如雨后春笋般不断涌现,提高了商业服务效率和质量,丰富了人们的物 质和文化生活,增强了社会安全保障,极大地推进了人工智能产业的良性发展和惠民应用。

人工智能关键技术

机器学习与深度学习

机器学习(Machine Learning,ML)是一门涉及统计学、系统辨识、逼近理论、神经网络、优化理论、计算机科学、脑科学等诸多领域的交叉学科,研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能,是人工智能技术的核心。基于数据的机器学习是现代智能技术中的重要方法之一,研究从观测数据(样本)出发寻找规律,利用这些规律对未来数据或无法观测的数据进行预测。根据学习模式、学习方法及算法的不同,机器学习存在不同的分类方法。

根据学习模式将机器学习分类为监督学习、无监督学习和强化学习等。

根据学习方法可以将机器学习分为传统机器学习和深度学习。

深度学习是机器学习领域中一个新的研究方向,它更接近于人工智能的追求目标。深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字、图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。

人工智能、机器学习、深度学习三者之间的相互包含关系

深度学习是一个复杂的机器学习算法,在语音和图像识别方面取得的效果远远超过先前相关技术。深度学习在搜索技术、数据挖掘、 机器学习、机器翻译、自然语言处理、多媒体学习、语音识别、推荐和个性化技术及其他相关领域都取得了很多成果。深度学习使机器模仿视听和思考等人类的活动,解决了很多复杂的模式识别难题,使得人工智能相关技术取得了巨大的进步。

知识图谱

知识图谱本质上是结构化的语义知识库,是一种由节点和边组成的图数据结构,以符号形式描述物理世界中的概念及其相互关系其基本组成单位是“实体—关系—实体”三元组,以及实体及其相关 “属性—值”对。不同实体之间通过关系相互联结,构成网状的知识 结构。在知识图谱中,每个节点表示现实世界的“实体”,每条边为 实体与实体之间的“关系”。

通俗地讲,知识图谱就是把所有不同种类的信息连接在一起而得到的一个关系网络,提供了从“关系”的角 度去分析问题的能力。

知识图谱可用于反欺诈、不一致性验证、组团欺诈等公共安全保障领域,需要用到异常分析、静态分析、动态分析等数据挖掘方法。特别地,知识图谱在搜索引擎、可视化展示和精准营销方面有很大的优势,已成为业界的热门工具。但是,知识图谱的发展还有很大的挑 战,如数据的噪声问题,即数据本身有错误或者数据存在冗余。随着 知识图谱应用的不断深入,还有一系列关键技术需要突破。

自然语言处理

自然语言处理是计算机科学领域与人工智能领域中的一个重要方向,研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法,涉及的领域较多,主要包括机器翻译、机器阅读理解和问答 系统等。

1.机器翻译

机器翻译技术是指利用计算机技术实现从一种自然语言到另外一种自然语言的翻译过程。基于统计的机器翻译方法突破了之前基于规则和实例翻译方法的局限性,翻译性能取得了巨大提升。基于深度神经网络的机器翻译在日常口语等一些场景的成功应用已经显现出了巨大的潜力。随着上下文的语境表征和知识逻辑推理能力的发展,自然语言知识图谱不断扩充,机器翻译将会在多轮对话翻译及篇章翻译领域取得更大进展。

2.语义理解

语义理解技术是指利用计算机技术实现对文本篇章的理解,并且 回答与篇章相关问题的过程。语义理解更注重于对上下文的理解及对答案精准程度的把控。随着MCTest数据集的发布,语义理解受到更多关注,取得了快速发展,相关数据集和对应的神经网络模型层出不穷。语义理解技术将在智能客服、产品自动问答等相关领域发挥重要作用,进一步提高问答与对话系统的精度。

3.问答系统

问答系统分为开放领域的对话系统和特定领域的问答系统。问答系统技术是指让计算机像人类一样用自然语言与人交流的技术。人们可以向问答系统提交用自然语言表达的问题,系统会返回关联性较高 的答案。尽管问答系统目前已经有了不少应用产品,但大多是在实际信息服务系统和智能手机助手等领域中的应用,在问答系统稳健性方面仍然存在着问题和挑战。

自然语言处理面临四大挑战:

一 : 是在词法、句法、语义、语用和语音等不同层面存在不确定性;
二 : 是新的词汇、术语、语义和语法导致未知语言现象的不可预测性;
三 : 是数据资源的不充分使其难以覆盖复杂的语言现象;
四 : 是语义知识的模糊性和错综复杂的关联性难以用简单的数学模 型描述,语义计算需要参数庞大的非线性计算。

人机交互

人机交互主要研究人和计算机之间的信息交换,主要包括人到计算机和计算机到人的两部分信息交换,是人工智能领域重要的外围技术。人机交互是与认知心理学、人机工程学、多媒体技术、虚拟现实 技术等密切相关的综合学科。传统的人与计算机之间的信息交换主要依靠交互设备进行,主要包括键盘、鼠标、操纵杆、数据服装、眼动 跟踪器、位置跟踪器、数据手套、压力笔等输入设备,以及打印机、 绘图仪、显示器、头盔式显示器、音箱等输出设备。人机交互技术除了传统的基本交互和图形交互外,还包括语音交互、情感交互、体感 交互及脑机交互等技术。

计算机视觉

定义

计算机视觉是使用计算机模仿人类视觉系统的科学,让计算机拥有类似人类提取、处理、理解和分析图像及图像序列的能力。自动驾驶、机器人、智能医疗等领域均需要通过计算机视觉技术从视觉信号中提取并处理信息。近来随着深度学习的发展,预处理、特征提取与 算法处理渐渐融合,形成端到端的人工智能算法技术。

分类

根据解决的问题,计算机视觉可分为计算成像学、图像理解、三维视觉、动态视觉 和视频编解码五大类。 目前,计算机视觉技术发展迅速,已具备初步的产业规模。

挑战

一是如何在不同的应用领域与其他技术更好地结合,计算机视觉 在解决某些问题时可以广泛利用大数据,已经逐渐成熟并且可以超过 人类,而在某些问题上却无法达到很高的精度;

二是如何降低计算机视觉算法的开发时间和人力成本,目前计算 机视觉算法需要大量的数据与人工标注,需要较长的研发周期以达到 应用领域所要求的精度与耗时;

三是如何加快新型算法的设计开发,随着新的成像硬件与人工智 能芯片的出现,针对不同芯片与数据采集设备的计算机视觉算法的设 计与开发也是挑战之一。

生物特征识别

生物特征识别技术是指通过个体生理特征或行为特征对个体身份进行识别认证的技术

从应用流程看有两个阶段:注册和识别

注册阶段:通过传感器对人体的生物表征信息进行采集,如利用图像传感器对指纹和人脸等光学信息、话筒对说话声等声 学信息进行采集,利用数据预处理及特征提取技术对采集的数据进行 处理,得到相应的特征进行存储。

识别过程:采用与注册过程一致的信息采集方式对待识别人进行信 息采集、数据预处理和特征提取,然后将提取的特征与存储的特征进 行比对分析,完成识别。

从应用任务看两种任务:辨认与确认

辨认:是指从存储库中确定待识别人身份的过程,是 一对多的问题。

确认:是指将待识别人信息与存储库中特定单人信息进 行比对,确定身份的过程,是一对一的问题。 生物特征识别技术涉及的内容十分广泛,包括指纹、掌纹、人 脸、虹膜、指静脉、声纹、步态等多种生物特征,其识别过程涉及图 像处理、计算机视觉、语音识别、机器学习等多项技术。目前生物特 征识别作为重要的智能化身份认证技术,在金融、公共安全、教育、 交通等领域得到广泛应用。

SLAM 技术

机器人想要自由行走,实现自主定位导航是关键。自主定位导航包括定位、建图与路径规划 。同步定位与建图(Simultaneous Localization and Mapping,SLAM)技术是目前市场上使用较为广泛的室内自主定位与导航技术,采用该技术运动物体可以根据传感器的信息,一边计算自身位置,一边构建环境地图或环境模型,这一过程 解决了机器人等在未知环境下运动时的定位与地图构建问题。

从20世纪80年代SLAM概念的提出到现在,SLAM技术已经走过了30 多年的历程。SLAM系统使用的传感器在不断拓展,从早期的声呐,到 后来的2D/3D激光雷达,再到单目、双目、RGBD、ToF等各种相机,以 及与惯性测量单元IMU等传感器的融合,SLAM的算法也从开始的基于滤 波器的方法(EKF、PF等)向基于优化的方法转变,技术框架也从开始 的单一线程向多线程演进。 当前,SLAM构图根据传感器不同又分为基于视觉的VSLAM(Visual SLAM)和基于激光雷达的激光SLAM(Lidar SLAM),分别对应视觉导 航和激光导航。视觉导航技术的优势在于成本较低,最基础的功能仅 需要可以采集到清晰环境图像信息的摄像头及处理信息的计算单元, 搭载训练完成的AI模型即可实现。激光导航技术通过向各个方向更多 点位测距,可以二维地建图或三维地建模,确定扫地机器人自身的位 置,同时还可以利用两点间的距离信息进行三角测距。这两种技术各有千秋,现阶段市场中各占有一定的份额,主要还是看哪种技术适合某种特定应用。

VR / AR / MR 技术

虚拟现实(Virtual Reality,VR)、增强现实(Augmented Reality,AR)、混合显示(Mixed Reality,MR)等技术是以计算机 为核心的新型视听技术。结合相关科学技术,在一定范围内生成与真 实环境在视觉、听觉、触感等方面高度近似的数字化环境。用户借助 必要的装备与数字化环境中的对象进行交互,相互影响,获得近似真 实环境的感受和体验,通过显示设备、跟踪定位设备、触力觉交互设 备、数据获取设备、专用芯片等实现。 VR/AR/MR从技术特征角度,按照不同处理阶段,可以分为获取与 建模技术、分析与利用技术、交换与分发技术、展示与交互技术及技 术标准与评价体系5个方面。获取与建模技术研究如何把物理世界或者 人类的创意进行数字化和模型化,难点是三维物理世界的数字化和模 型化技术;分析与利用技术重点研究对数字内容进行分析、理解、搜 索和知识化方法,其难点在于内容的语义表示和分析;交换与分发技 术主要强调各种网络环境下大规模的数字化内容流通、转换、集成和 面向不同终端用户的个性化服务等,其核心是开放的内容交换和版权 管理技术;展示与交互技术重点研究符合人类习惯数字内容的各种显 示技术及交互方法,以期提高人对复杂信息的认知能力,其难点在于 建立自然和谐的人机交互环境;技术标准与评价体系重点研究虚拟现 实/增强现实基础资源、内容编目、信源编码等的规范标准及相应的 评估技术。 目前VR/AR/MR技术面临的挑战主要体现在智能获取、普适设备、 自由交互和感知融合4个方面。在硬件平台与装置、核心芯片与器件、 软件平台与工具、相关标准与规范等方面存在一系列科学技术问题。 随着5G移动通信技术的普及应用,通过VR/AR/MR技术构建基于移动端 的真实场景虚拟叠加、虚实环境对象无缝融合、全方位自然交互体验 等将是未来人工智能应用领域的一个发展趋势。

小结 : 

当前,新一代人工智能技术正加速在各行各业深度融合和落地应用,推动经济社会各领域从数字化、网络化向智能化加速跃升。本章通过对人工智能概念和定义的引入,全面梳理人工智能的来源和发展之路,进而指明人工智能的发展目标和主要任务。在此基础上,对近年来新一代人工智能的出现及其驱动因素进行了深入剖析,特别是对深度学习算法、GPU并行计算、大数据技术及新近出现的5G技术、AR技术等进行探讨,对其中所涉及的关键性技术进行详细介绍,为读者理解人工智能内涵及洞察新一代人工智能发展方向等提供了认知基础, 从而为后面的学习打下基础。

  • 29
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值