AI术语名词中英文解释

4 篇文章 0 订阅
2 篇文章 0 订阅

AGI:Artificial General Intelligence (通用人工智能):是指具备与人类同等或超越人类的智能,能够表现出正常人类所具有的所有智能行为。又被称为强人工智能。

AI:Artificial Intelligence (人工智能):于1956年在Dartmouth学会上提出,是一种技术,通过类似人类反应的方式对刺激做出反应并从中学习。其理解和判断水平通常仅在人类的专业技能中找到。AI因其具备自主学习和认知能力,能够进行自我调整和改进,从而应对更加复杂的任务。

AIGC:AI Generated Content (生成式AI):又称为生成式AI,意指由人工智能生成的内容。包括AI文字续写、文字转像的AI图、AI主持人等应用都属于AIGC。

ANI:Artificial Narrow Intelligence (狭义人工智能):即专注于一项任务的人工智能,例如下围棋的AlphaGo。又被称为弱人工智能。

ASI (人工超级智能):尽管存在争议,ASI通常被定义为超越人类思维能力的人工智能。

Accelerator(加速器):一类旨在加速人工智能应用的微处理器。

Agents(智能体):Agent是一个设定了目标或任务的大型语言模型,可以迭代运行。与大型语言模型(LLM)在工具如ChatGPT中通常被用于回答问题的方式不同,Agent具有复杂的工作流程,模型本质上可以自我对话,而无需人类驱动每一部分的交互。

Alignment(人工智能对齐):指引导人工智能系统的行为,使其符合设计者的利益和预期目标。已对齐的人工智能行为会朝着预期方向发展,而未对齐的人工智能行为虽然具备特定目标,但此目标并非设计者所预期。

Attention(注意力机制):在深度学习中指的是模型对输入的不同部分分配不同注意力的机制,有助于处理长距离依赖性。注意力机制有助于模型在生成输出时专注于输入的相关部分。

Backpropagation(反向传播):是一种用于训练神经网络的算法,通过不断调整模型参数以最小化预测误差。

Bias(偏置):机器学习神经网络中的偏置,相当于函数截距。

CLIP:Contrastive Language-Image Pre-training(对比语言-图像预训练):是一种由 OpenAI 提出的模型,用于联合处理图像和文本,使其能够理解和生成图像的描述。

CNN:Convolutional Neural Network(卷积神经网络):一种专门用于处理图像和视频等网格数据的深度学习神经网络。此类模型通常用于图像识别任务。

CV:Computer Vision(计算机视觉):是一种让计算机能够理解和解释视觉信息的技术领域。它指的是用摄影机和计算机代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步进行图像处理,使其更适合人眼观察或传送给仪器检测的图像。

ChatGPT(对话生成预训练变压器):由 OpenAI 创建的一种对话型语言模型。于2022年11月推出。该程序使用基于GPT-3.5、GPT-4架构的大型语言模型并以强化学习训练。

CoT:Chain-of-Thought (思维链提示):通过提示LLM生成一系列中间步骤,提高LLM的推理能力。这些中间步骤导致多步骤问题的最终答案。该技术由谷歌研究人员于2022年首次提出。

Compute(计算资源):在上下文中,通常指的是计算机硬件资源,如CPU、GPU或TPU,用于进行计算和执行机器学习模型。

Connectionism(联结主义):也称为神经网络或基于学习的AI。主要观点是,知识存储在大量连接中,模拟了大脑的神经网络。这种方法依赖于从数据中学习和适应,而不是依赖预定义的规则。连接主义AI的典型例子是深度学习。

Cross-modal Generalization(跨模态泛化):是一种机器学习能力,指的是模型能从一种模态(或类型)的数据中学习,并将这些学习应用到另一种模态的数据上。

Data Augmentation(数据增强):是一种通过对原始训练数据进行随机变换或扩充的方法,以增加模型的多样性和泛化能力。通过添加现有数据的略微修改的副本来增加用于训练模型的数据量和多样性的过程。

Deep Learning(深度学习):是一种机器学习的分支,以人工神经网络为架构,对数据进行表征学习的算法。深度学习中的形容词“深度”是指在网络中使用多层。

DeepMind(深度思维):是一家人工智能研究实验室,致力于推动人工智能的前沿研究,曾开发出AlphaGo等领先的人工智能系统。

Diffusion Models(扩散模型):在机器学习中,是一类潜变量模型,用于训练马尔可夫链。在计算机视觉中,通过学习逆扩散过程训练神经网络,使其能够对叠加了高斯噪声的图像进行去噪。它是DALL-E、Stable Diffusion和Midiourney的基础模型。

Double Descent(双降):指机器学习中的一种现象,其中模型性能随着复杂性的增加而提高,然后变差,然后再次提高。

Embedding(嵌入):在机器学习中,指的是将高维数据映射到低维空间的过程,常用于表示词向量或图像特征。

Emergence(涌现):是一种现象,许多小实体相互作用后形成了具有小实体不具备特性的大实体。在整合层次和复杂系统理论中,涌现扮演着核心角色。例如,生物学中的生命现象即是化学的一种涌现。

End-to-End Learning(端到端学习):是一种无需手动设计功能的机器学习模型。该模型提供原始数据,期望从这些输入中学习。

Expert Systems(专家系统):是一种使用专业知识和规则来模拟人类专家决策过程的人工智能系统。

Few-Shot Learning(小样本学习):旨在从少量样本中学习解决问题的方法。与小样本学习相关的概念还包括零样本学习(在没有训练数据的情况下利用类别属性等信息训练模型,从而识别新类别)。

Fine-Tuning(微调):是迁移学习的一种常用技术。目标模型在除去输出层的源模型上进行复制,并在目标数据集上微调这些参数。在自然语言处理(NLP)中尤为常见。

Fitting(拟合):是在机器学习和统计学中描述或预测数据的过程。理想的拟合是模型能够准确捕捉数据的基本结构和模式,同时处理一些随机的、无法预测的噪声。

Forward Propagation(前向传播):在神经网络中,是指输入数据通过每一层(从输入层到输出层)产生输出的过程。网络对输入应用权重和偏差,并使用激活函数生成最终输出。

Foundation Model(基础模型):是在广泛数据上训练的大型AI模型,旨在适应特定任务。

GAN(General Adversarial Network):是一种机器学习模型,通过使两个神经网络相互对抗(一个生成器创建新数据,另一个鉴别器试图将数据与真实数据区分开)来生成类似于现有数据的新数据。

GPT-4(Generative Pre-trained Transformer 4):是由OpenAI公司于2023年3月14日发布的自回归语言模型。相较于GPT-3和GPT-3.5模型,在各个方面都有所优化。

GPU(Graphics Processing Unit):是一种高性能的专用处理器,常用于加速深度学习和图形处理任务。

Generalize(广义化):指将事物的定义修改或补充以使其适用于更大范围,伴随着将主体的定义或概念抽象化的过程。

Generalization Ability(泛化能力):是模型对新数据的适应和预测能力,是评估模型性能的重要指标之一。

Generative AI(生成式人工智能):是一类能够生成新的、以前未见的数据的人工智能系统,如图像、文本等。

Gradient Descent(梯度下降):是一种通过沿损失函数梯度的反方向更新模型参数的优化算法,以最小化损失。

Hallucinate(幻觉):在人工智能中,是指模型生成的内容不基于实际数据或与现实明显不同的现象。

Hidden Layer(隐藏层):是神经网络中介于输入层和输出层之间的层,用于学习输入数据的抽象表示。

Hyperparameter Tuning(超参数调整):通过调整模型的超参数(如学习率、层数等)来提高模型性能的优化过程。

Inference(推理):在机器学习中指使用经过训练的模型对新数据进行预测或分类的过程。

Instruction Tuning(指令调优):在机器学习中指通过调整模型的指令或策略来改善性能的过程。

Knowledge Distillation(数据蒸馏):旨在将原始大数据集浓缩成小型数据集,使得在小数据集上训练的模型与在原数据集上训练的模型表现相似。这一技术在深度学习中得到广泛应用,特别是在模型压缩和模型部署方面。它有助于将复杂模型转化为更轻量级的版本,促进模型的迁移学习和模型集成,提高模型的鲁棒性和泛化能力。

LLM(Large Language Model):是由具有数十亿或更多权重的神经网络组成的语言模型。通过自监督学习或半监督学习对大量未标记文本进行训练。

LSTM(Long Short-Term Memory):是一种用于处理序列数据的循环神经网络(RNN)架构。

Latent Space(潜在空间):指模型学到的数据的低维表示,其中隐藏了数据的关键特征。

Loss Function(损失函数):也称为成本函数,是机器学习模型在训练期间试图最小化的函数,量化了模型预测与真实值的距离。

Machine Learning(机器学习):是人工智能的一个分支,通过机器学习可以解决人工智能中的部分问题。它是实现人工智能的途径之一,强调通过学习解决问题。

Mixture of Experts(专家组合):是一种机器学习技术,通过训练多个专门的子模型(“专家”),并以依赖于输入的方式组合它们的预测。

Multimodal(模态):在人工智能中,指可以理解和生成多种类型数据(如文本和图像)信息的模型。

NLP(Natural Language Processing):是人工智能和语言学领域的分支学科,探讨如何处理及运用自然语言。NLP包括认知、理解、生成等多方面步骤。

NeRF(Neural Radiance Fields):是一种用于渲染三维场景的神经网络模型。

Neural Network(神经网络):是一种受人脑启发的人工智能模型,由连接单元或节点(神经元)组成,用于接受输入、进行计算并产生输出。

Non-Maximum Suppression(NMS)非极大值抑制:从字面意思理解,抑制那些非极大值的元素,保留极大值元素。其主要用于目标检测,目标跟踪,3D重建,数据挖掘等。目前NMS常用的有标准NMS, Soft NMS, DIOU NMS等。后续出现了新的Softer NMS,Weighted NMS等改进版。

Objective Function(目标函数):在机器学习中指用于衡量模型性能的函数,模型的训练目标是最小化或最大化这个函数。

OpenAI:人工智能公司,致力于推动人工智能的前沿研究,创造对人类有益的AI。

Overfitting(过拟合):在机器学习中指模型在训练数据上表现很好,但在未见过的新数据上表现差的现象。过度拟合训练数据可能导致模型泛化能力差。

Parameters(参数):在机器学习模型中,指模型的权重和偏差等可调整的变量。

Pre-training(预训练):是一种机器学习的方法,通过在大规模数据上进行初始训练,然后在特定任务上进行微调。

Prompt Engineering(提示工程):是一种调整和优化自然语言处理模型输入提示的方法,以获得更准确和有针对性的输出。

RLHF(Reinforcement Learning with Human Feedback):是一种结合强化学习和人类反馈的方法,用于改进模型性能。

RNN(Recurrent Neural Network):是一种用于处理序列数据的神经网络结构。

Normalization(正则化):是一种用于减小模型过拟合风险的技术,通过对模型参数引入额外的惩罚项。

Reinforcement Learning(强化学习):是机器学习的一个领域,强调如何基于环境而行动,以取得最大化的预期利益。是除了监督学习和非监督学习之外的第三种机器学习方法。

Singularity(奇点):在人工智能的背景下,奇点(技术奇点)指的是未来的一个假设时间点,当技术增长变得不可控和不可逆转时,将导致人类文明发生不可预见的变化。

Supervised Learning(监督学习):是一种机器学习方法,模型通过从有标签的训练数据中学习,通过最小化预测和实际标签之间的差异来训练模型。

Symbolic AI(符号主义):也被称为基于规则的AI或逻辑主义。符号主义认为所有知识和推理都可以用符号和规则来表示。这种方法依赖于明确定义的规则和符号,通过逻辑推理解决问题。专家系统是符号主义AI的典型例子。

TPU(Tensor Processing Unit):是由谷歌设计的专用硬件,用于高效进行张量运算,特别适用于深度学习任务。

TensorFlow:是由谷歌开发的开源机器学习框架,用于构建和训练深度学习模型。

Token(标记):在自然语言处理中,指的是文本中的基本单元,可以是一个单词、一个字符或一个子词。

Training Data(训练数据):用于训练机器学习模型的数据集,包含输入特征和相应的标签。

Transfer Learning(迁移学习):是一种机器学习方法,通过在一个任务上学到的知识来改善在另一个相关任务上的性能。

Transformer(变压器):是一种处理序列数据的模型架构,通过自注意力机制实现了对序列的全局关注。

Turing Test(图灵测试):是一种测试人工智能是否能够表现得像人类一样的方法,即能否欺骗人类判别其是否为机器。

Underfitting(欠拟合):在机器学习中指的是模型对训练数据学得不够好,不能很好地适应新数据。

Unsupervised Learning(无监督学习):是一种机器学习方法,模型从没有标签的数据中学习,目标是发现数据中的模式和结构。

Validation Data(验证数据):用于调整模型超参数的数据集,不用于模型的训练,而是用于评估模型性能。

Vector(向量):在数学和机器学习中指的是具有大小和方向的量,常用于表示特征或嵌入。

XAI(Explainable Artificial Intelligence):是一种人工智能方法,强调模型决策的可解释性和可理解性。

Zero-Shot(零样本学习):是一种机器学习范例,使用预先训练的深度学习模型来泛化新类别的样本。其思路是将训练实例中已包含的知识迁移到测试实例分类的任务中。需要注意,零样本学习中训练和测试集是不相交的。

  • 24
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
人工智能课程教学 主要内容: 人工智能的研究与发展 知识表示方法 确定性推理 计算智能 机器学习 你认为人工智能是否能够超过人类智能? 你认为人工智能是否能够超过人类智能? 人工智能全文共314页,当前为第1页。 什么是人工智能? 人工智能—Artificial Intelligence (AI) 众说纷纭 目前还没有统一的定义 AI的严格定义依赖于对智能的定义 即要定义人工智能,首先应该定义智能 但智能本身也还无严格定义 因此,应当首先研究人类的自然智能 一般解释:人工智能就是用人工的方法在机器(计算机)上实现的智能,或称机器智能、计算机智能。 人工智能全文共314页,当前为第2页。 知识与智能 知识 人们通过体验、学习或联想而知晓的对客观世界规律性的认识,包括事实、条件、过程、规则、关系和规律等。 智能 一种应用知识对一定环境或问题进行处理的能力或者进行 抽象思考的能力。 智能机器 能够在各类环境中自主地或交互地执行各种拟人任务的机器。 人工智能全文共314页,当前为第3页。 人工智能的不同定义 AI (能力) 智能机器所执行的通常与人类智能有关的智能行为,如判断、推理、证明、识别、感知、理解、通信、设计、思考、规划、学习和问题求解等思维活动。 AI (学科) 计算机科学中涉及研究、设计和应用智能机器的一个分支。它的近期目标在于研究用机器来模仿和执行人脑的某些功能,并开发相关理论和技术。 人工智能全文共314页,当前为第4页。 2. 人工智能是如何发展的? 孕 育 期 ( 1956年前) 形 成 期 ( 1956-1970年) 暗 淡 期 ( 1966-1974年) 知识应用期 ( 1970-1988年) 集成发展期 ( 1986年至今) 人工智能全文共314页,当前为第5页。 2. 人工智能的起源与发展—孕育期 孕育期 ( 1956以前) 亚里斯多德(公元前384—322):古希腊伟大的哲学家和思想家,创立了演绎法。他提出的三段论至今仍然是演绎推理的最基本出发点。 莱布尼茨(1646—1716):德国数学家和哲学家,把形式逻辑符号化,奠定了数理逻辑的基础。 人工智能全文共314页,当前为第6页。 2. 人工智能的起源与发展—孕育期 图灵(1912—1954):英国数学家,1936年创立了自动机理论亦称图灵机,1950年在其著作《计算机器与智能》中首次提出"机器也能思维" ,被誉为"人工智能之父"。 莫克(1907—1980):美国数学家、电子数字计算机的先驱,1946年研制成功了世界上第一台通用电子数字计算机ENIAC。 人工智能全文共314页,当前为第7页。 2. 人工智能的起源与发展—孕育期 麦克洛奇和皮兹:美国神经生理学家,1943年建成第一个神经网络模型(MP模型)。 维纳(1874—1956) :美国著名数学家、控制论创始人。1948年创立了控制论。控制论对人工智能的影响,形成了行为主义学派。 人工智能全文共314页,当前为第8页。 2. 人工智能的起源与发展—形成期 形成期 (1956-1970) AI诞生于一次历史性的聚会—达特茅斯会议 1956年夏季,年轻的美国学者麦卡锡、明斯基、朗彻斯特和香农共同发起,邀请莫尔、塞缪尔、 纽厄尔和西蒙等参加在美国达特茅斯大学举办 了一次长达2个多月的研讨会,热烈地讨论用机器模拟人类智能的问题。会上,首次使用了 "人工智能"这一术语。这是人类历史上第一次 人工智能研讨会,标志着人工智能学科的诞生,具有十分重要的历史意义。 人工智能全文共314页,当前为第9页。 2. 人工智能的起源与发展—形成期 形成期 (1956-1970) 迅速发展,过于乐观 1956年,塞缪尔在IBM计算机上研制成功了具有自学习、自组织和自适应能力的西洋跳棋程序。 1957年,纽厄尔、肖(Shaw)和西蒙等研制了一个称为逻辑理论机(LT)的数学定理证明程序。 1958年,麦卡锡建立了行动规划咨询系统。 1960年纽厄尔等研制了通用问题求解(GPS)程序。麦卡锡研制了人工智能语言LISP。 1961年,明斯基发表了"走向人工智能的步骤"的论文,推动了人工智能的发展。 1965年,鲁宾逊提出了归结(消解)原理。 人工智能全文共314页,当前为第10页。 2. 人工智能的起源与发展—暗淡期 暗淡期 ( 1966-1974 ) 过高预言的失败,给AI的声誉造成 重大伤害。 "20 年内,机器将能做人所能做的一切。" ——西蒙,1965 "在3~8年时间里,我们将研制出具有普通人智力的计算机。这样的机器能读懂莎士比亚的著作,会给汽车上润滑油,会玩弄政治权术,能讲笑话,会争吵。……它的智力将无以伦比。" ——明斯基,1977 人工智能全文共314页,当前为第11页。 2. 人工智能的起源与发展—暗淡期 塞缪尔的
⼈⼯智能领域的术语,主要有哪些? ⼈⼯智能不再是定义模糊的流⾏词汇,已经成为了更为精确的指代,在这样的背景下,理解⼈⼯智能领域的术语越来越成为⼀种挑战。本⽂ 就为⼤家总结⼀些⼈⼯智能领域最重要的术语。 A 算法(Algorithms):⼀组⽤于⼈⼯智能、神经⽹络或其他机器的规则或指令,以帮助它⾃⼰学习;分类、聚类、推荐和回归是四种最常 见的类型。 ⼈⼯智能(Artificialintelligence):机器模拟⼈类智⼒和⾏为做出决策、执⾏任务的能⼒。 ⼈⼯神经⽹络(ANN):这种学习模型,模拟⼈脑运作,从⽽解决传统计算机系统难以解决的任务。 ⾃主计算(Autonomiccomputing):系统⾃适应⾃我管理⾃⾝资源⽤于⾼级计算功能的能⼒,⽽⽆需⽤户输⼊。 C 聊天机器⼈(Chatbots):聊天机器⼈(简称chatbot)通过⽂本对话、语⾳命令来模拟与⼈类⽤户进⾏对话。它们是有AI功能的计算机程 序的常⽤界⾯。 分类(Classification):分类算法让机器根据训练数据给数据点进⾏分类。 聚类分析(Clusteranalysis):⼀种⽤于探索性数据分析的⽆监督学习,查找数据中的隐藏模式或分组;群集的建⽴是通过欧⽒距离 (Euclidean)或概率距离等定义的相似性度量。 聚类(Clustering):聚类算法让机器将数据点或项⽬分成具有相似特征的组。 认知计算(Cognitivecomputing):⼀种模仿⼈类⼤脑思维⽅式的计算模型。通过使⽤数据挖掘、⾃然语⾔处理和模式识别来进⾏⾃学习 (self-learning)。 卷积神经⽹络(CNN):⼀种识别和处理图像的神经⽹络。 D 数据挖掘(Datamining):通过查看数据集以发现和挖掘其中模式,从⽽进⼀步使⽤数据。 数据科学(Datascience):结合统计、信息科学、计算机科学的科学⽅法、科学系统和科学过程的交叉学科,通过结构化或⾮结构化数据 提供对现象的洞察。 决策树(Decisiontree):⼀个基于分⽀的树模型,绘制决策及其可能后果的模型图,与流程图类似。 深度学习(Deeplearning):机器通过由层叠信息层组成的⼈⼯神经⽹络⾃主模仿⼈类思维模式的能⼒。 F Fluent:⼀种可随时间变化的条件。 G 游戏AI(GameAI):使⽤算法替代随机性的⼀种适⽤于游戏的AI特定形式。这种计算⾏为⽤于⾮玩家⾓⾊(NPC),对于玩家的操作⽣成 类似⼈类的智⼒和基于反应的⾏为。 K 知识⼯程(Knowledgeengineering):侧重于建⽴以知识为基础的系统,包括科学、技术和社会在内的所有⽅⾯。 M 机器智能(Machineintelligence):涵盖机器学习、深度学习和古典学习算法在内的总括术语。 机器学习(Machinelearning):⼈⼯智能的⼀个⽅⾯,专注于算法,允许机器在不经过编程的情况下学习,并随着新数据的摄⼊⽽改变。 机器感知(Machineperception):系统接收和解释来⾃外部世界数据的能⼒,类似于⼈类使⽤感官。这通常需要借助外接硬件完成,尽 管软件也同样需要。 N ⾃然语⾔处理(Natural language processing):程序识别理解⼈类沟通的能⼒。 R 循环神经⽹络(RNN):⼀种理解顺序信息、识别模式、并根据这些计算产⽣输出的神经⽹络。 S 监督学习(Supervisedlearning):机器学习的⼀种,其输出数据集训练机器产⽣所需的算法,如⽼师监督学⽣;⽐⽆监督学习更常见。 群体⾏为(Swarmbehavior):从数学建模者的⾓度来看,这是从个体遵循的简单规则衍⽣出的新⽣⾏为,不涉及任何集中协调。 U ⽆监督学习(Unsupervisedlearning):⼀种机器学习算法,通过不带标签响应的输⼊数据组成的数据集进⾏推理。最常见的⽆监督学习 ⽅法是聚类分析。 ⼈⼯智能、⼤数据、云计算和物联⽹的未来发展值得重视,均为前沿产业,多智时代专注于⼈⼯智能和⼤数据的⼊门和科谱,在此为你推荐 ⼏篇优质好⽂: ⼈⼯智能,机器学习和深度学习之间,主要有什么差异? 如何跳出⼤数据视⾓规划⼀个标准的⼈⼯智能平台?就这么简单! 在⽹络⼤时代背景下,⼈⼯智能技术是如何应⽤的
七个人工智能常见术语全文共4页,当前为第1页。七个人工智能常见术语全文共4页,当前为第1页。七个人工智能常见术语 七个人工智能常见术语全文共4页,当前为第1页。 七个人工智能常见术语全文共4页,当前为第1页。 A Algorithms 算法:给AI、神经网络或其他机器提供的一套规则或指令,以帮助它自己学习; 分类,聚类,推荐和回归是四种最流行的类型。 Artificial intelligence 人工智能:机器能够做出决策并执行模拟人类智能和行为的任务。 Artificial neural network 人工神经网络(ANN):一种学习模型,可以像人脑一样工作,解决传统计算机系统难以解决的任务。 Autonomic computing 自主计算:系统的自适应自我管理能力,用于高级计算功能,无需用户输入。 C Chatbots 聊天机器人:聊天机器人(简称聊天机器人),旨在通过文本聊天,语音命令或两者进行通信来模拟与人类用户的对话。它们是包含AI功能的计算机程序的常用接口。 Classification 分类:分类算法让机器根据训练数据为数据点分配类别。 Cluster analysis 聚类分析:一种用于探索性数据分析的无监督学习,用于查找数据中的隐藏模式或分组;群集使用由欧几里得或概率距离等度量定义的相似性度量建模。 Clustering 聚类:聚类算法允许机器将数据点或项目分组到具有相似特征的组中。 Cognitive computing 认知计算:一种模仿人类大脑思维 式的计算机模型。它涉及通过使用数据挖掘,自然语言处理和模式识别进行自学习。 七个人工智能常见术语全文共4页,当前为第2页。七个人工智能常见术语全文共4页,当前为第2页。Convolutional neural network 卷积神经网络(CNN):一种识别和理解图像的神经网络。 七个人工智能常见术语全文共4页,当前为第2页。 七个人工智能常见术语全文共4页,当前为第2页。 D Data mining 数据挖掘:检查数据集以发现和挖掘可以进一步使用的数据模式。 Data science 数据科学:一个跨学科领域,结合了统计学,信息科学和计算机科学的科学方法,系统和过程,通过结构化或非结构化数据提供对现象的洞察。 Decision tree 决策树:基于树和分支的模型,用于映射决策及其可能的后果,类似于流程图。 Deep learning 深度学习:机器通过由级联信息层组成的人工神经网络自主模仿人类思维模式的能力。 F Fluent 流畅:一种可以随时间变化的状况。 G Game AI :一种特定于游戏的AI形式,它使用算法来代替随机性。 它是非玩家角色中使用的计算行为,用于生成玩家所采取的类似人类智能和基于反应的动作。 Genetic algorithm 遗传算法:一种基于遗传学和自然选择原理的进化算法,用于寻找困难问题的最优或近似最优解,否则需要数十年才能解决。 H Heuristic search techniques 启发式搜索技术:支持通过消除不正确的选七个人工智能常见术语全文共4页,当前为第3页。七个人工智能常见术语全文共4页,当前为第3页。项来缩小搜索问题的最佳解决方案的范围。 七个人工智能常见术语全文共4页,当前为第3页。 七个人工智能常见术语全文共4页,当前为第3页。 K Knowledge engineering 知识工程:专注于构建基于知识的系统,包括其所有科学,技术和社会方面。 L Logic programming 逻辑编程:一种编程范式,其中基于事实和规则的知识库进行计算; LISP和Prolog是用于AI编程的两种逻辑编程语言。 M Machine intelligence 机器智能:一个涵盖机器学习,深度学习和经典学习算法的总称。 Machine learning 机器学习:人工智能的一个方面,专注于算法,允许机器学习而不需要编程,并在暴露于新数据时进行更改。 Machine perception 机器感知:系统接收和解释来自外部世界的数据的能力,类似于人类如何使用我们的感官。 这通常使用附加的硬件来完成,尽管软件也是可用的。 N Natural language processing 自然语言处理:程序能够识别人类交流的能力。 R Recurrent neural network 递归神经网络(RNN):一种神经网络,它能够理解顺序信息并识别模式,并根据这些计算创建输出。 S 七个人工智能常见术语全文共4页,当前为第4页。七个人工智能常见术语全文共4页,当前为第4页。Supervised learning 监督学习:一种机器学习,其中输出数据集训练机器生成所需的算法,如监督学生的教师; 比无监督学习更常见。 七个人工智能
人工智能的定义及发展历程 定义   人工智能(Artificial Intelligence)最早在1956 年就提出了,英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。是对人的意识、思维的信息过程的模拟。   人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。   人工智能在计算机领域内,得到了愈加广泛的重视。并在机器人,经济政治决策,控制系统,仿真系统中得到应用。   著名的美国斯坦福大学人工智能研究中心尼尔逊教授对人工智能下了这样一个定义:"人工智能是关于知识的学科――怎样表示知识以及怎样获得知识并使用知识的科学。"而另一个美国麻省理工学院的温斯顿教授认为:"人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。"这些说法反映了人工智能学科的基本思想和基本内容。即人工智能是研究人类智能活动的规律,构造具有一定智能的人工系统,研究如何让计算机去完成以往需要人的智力才能胜任的工作,也就是研究如何应用计算机的软硬件来模拟人类某些智能行为的基本理论、方法和技术。   人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,主要包括计算机实现智能的原理、制造类似于人脑智能的计算机,使计算机能实现更高层次的应用。人工智能将涉及到计算机科学、心理学、哲学和语言学等学科。可以说几乎是自然科学和社会科学的所有学科,其范围已远远超出了计算机科学的范畴,人工智能与思维科学的关系是实践和理论的关系,人工智能是处于思维科学的技术应用层次,是它的一个应用分支。从思维观点看,人工智能不仅限于逻辑思维,要考虑形象思维、灵感思维才能促进人工智能的突破性的发展,数学常被认为是多种学科的基础科学,数学也进入语言、思维领域,人工智能学科也必须借用数学工具,数学不仅在标准逻辑、模糊数学等范围发挥作用,数学进入人工智能学科,它们将互相促进而更快地发展。 人工智能的定义及发展历程全文共2页,当前为第1页。  人工智能三次浪潮 人工智能的定义及发展历程全文共2页,当前为第1页。   第一次,五十年代的达特茅斯会议确立了人工智能(AI)这一术语,人们陆续发明了第一款感知神经网络软件和聊天软件,证明了数学定理,人类惊呼 "人工智能来了"、"再过十年机器人会超越人类"。然而,人们很快发现,这些理论和模型只能解决一些非常简单的问题,人工智能进入第一次冬天。   第二次,八十年代 Hopfield 神经网络和 BT 训练算法的提出,使得人工智能再次兴起,出现了语音识别、语音翻译计划,以及日本提出的第五代计算机。但这些设想迟迟未能进入人们的生活之中,第二次浪潮又破灭了。   第三次,随着 2006 年 Hinton 提出的深度学习技术,以及 2012 年 ImageNet 竞赛在图像识别领域带来的突破,人工智能再次爆发。这一次,不仅在技术上频频取得突破,在商业市场同样炙手可热,创业公司层出不穷,投资者竞相追逐。 人工智能的定义及发展历程全文共2页,当前为第2页。  可以说,整个人工智能的发展过程都是在这样的模式之中,不同技术在不同时期扮演着推动人工智能发展的角色。在此,我们基于人工智能行业的企业、投资融资以及研究成果等维度提供一个全新看待人工智能的视角。 人工智能的定义及发展历程全文共2页,当前为第2页。 人工智能的定义及发展历程

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值