1.2机器学习概述

机器学习的定义

人工智能简单的说就是人类创造的智能,那么智能的定义是什么?

人类对智能和人工智能的定义随着时代的发展而不同,但追其溯源和本质,人类创造的任何一个机械或设备都叫做智能。

比如计算器,输入公式进去,能自动计算结果,这在计算器刚发明时的年代的人们看来,它就是智能的。

这类智能都有一个特性,那就是需要人类手动编程或制造,且不会变化(物理性老化除外)。

机器学习是指不对问题直接编程的情况下,让机器能够自己从经验中学习,从而自我完善的一个研究领域。

打个比喻,传统方法就是制造什么就得到什么,且不会改变;而机器学习方法就像造一个蛋,把它放在鸡窝里它会变成小鸡,把它放在鸭窝里它会变成小鸭。机器学习通常只造出来一个模型,然后让这个模型从经验或数据中学习,然后改善自身适应这些经验或数据,从而让去解决相关问题。

人类创造的一切机械、设备、算法等,都属于人工智能(人类创造的智能)。其中根据创造智能的过程分为传统的制造方法和机器学习方法。

现代对人工智能的定义是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。

几个关于机器学习的定义:

  • 在不直接针对问题进行编程的情况下,赋予计算机学习能力的一个研究领域。——Arthur Samuel,1959
  • 一门人工智能的科学,该领域的主要研究对象是人工智能,特别是如何在经验学习中改善具体算法的性能。——Langley,1996
  • 计算机算法的研究,并通过经验自动进行改善。——Tom M.Mitchell,1996
  • 对于某类任务T和性能度量P,如果一个计算机程序在T上以P衡量的性能随着经验E而自我完善,那么我们称这个计算机程序在- 从经验E学习。
  • 指机器通过统计学算法,对大量的历史数据进行学习从而生成经验模型,利用经验模型指导业务。

机器学习的发展

基础奠定时期:40年代末到60年代中

著名的人物和事件

阿兰·图灵:图灵测试

指测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。进行多次测试后,如果机器让平均每个参与者做出超过30%的误判,那么这台机器就通过了测试,并被认为具有人类智能。

唐纳德·赫布:Hebb学习规则

巴甫洛夫的条件反射实验:每次给狗喂食前都先响铃,时间一长,狗就会将铃声和食物联系起来。以后如果响铃但是不给食物,狗也会流口水。

赫布基于神经心理学的学习机制开启机器学习的第一步。Hebb学习规则是一个无监督学习规则,这种学习的结果是使网络能够提取训练集的统计特性,从而把输入信息按照它们的相似性程度划分为若干类。这一点与人类观察和认识世界的过程非常吻合,人类观察和认识世界在相当程度上就是在根据事物的统计特征进行分类。为后续的人工神经网络奠定了坚实的基础。

亚瑟·塞缪尔:跳棋程序

IBM科学家亚瑟·塞缪尔开发了一个跳棋程序。该程序能够通过观察当前位置,并学习一个隐含的模型,从而为后续动作提供更好的指导。塞缪尔发现,伴随着该游戏程序运行时间的增加,其可以实现越来越好的后续指导。通过这个程序,塞缪尔驳倒了普罗维登斯提出的机器无法超越人类,像人类一样写代码和学习的模式。他创造了“机器学习”,并将它定义为“可以提供计算机能力而无需显式编程的研究领域”。

罗森·布拉特:感知机

罗森·布拉特基于神经感知科学背景提出了第二模型,非常的类似于今天的机器学习模型。这在当时是一个非常令人兴奋的发现,它比Hebb的想法更适用。基于这个模型罗森·布拉特设计出了第一个计算机神经网络——感知机,它模拟了人脑的运作方式。

马文·明斯基:线性不可分XOR

马文·明斯基写了一本书《感知器》,在这本书中,他认为罗森·布拉特提出的感知机只能解决线性可分的问题,没办法解决线性不可分的问题,并且从数学的角度严格证明了这一点。而现实生活中大部分都是线性不可分的问题。这也间接导致了机器学习进入了停滞期。

停滞期:60年代中到70年代末

机器学习的发展步伐几乎处于停滞状态。虽然这个时期温斯顿(Winston)的结构学习系统和海斯·罗思(Hayes Roth)等的基于逻辑的归纳学习系统取得较大的进展,但只能学习单一概念,而且未能投入实际应用。此外,神经网络学习因理论缺陷未能达到预期效果而转入低潮。这个时期的研究目标是模拟人类的概念学习过程,并采用逻辑结构或图结构作为机器内部描述。机器能够采用符号来描述概念(符号概念获取),并提出关于学习概念的各种假设。

复兴期:70年代末到80年代末

1980年,在美国的卡内基梅隆大学(CMU)召开了第一届机器学习国际研讨会,标志着机器学习研究已在全世界兴起。此后,机器归纳学习进入应用。

伟博斯在1981年提出了多层感知器(MLP),非常容易的解决线性不可分问题。但又带来另一个问题,神经网络包括多层感知器本身结构比较复杂,需要确定的参数非常多,计算能力就成为了一个问题。
如何通过已知的数据,去求解整个模型中待定的参数,是一个非常困难的问题。
同时期,反向传播算法(BP)被提出,就很好的解决了如何通过现有的计算能力去计算当前多层感知器待定参数的问题。

1985 -1986神经网络研究人员(鲁梅尔哈特,辛顿,威廉姆斯-赫,尼尔森)先后提出了MLP与BP训练相结合的理念。
1986年,昆兰提出决策树算法,更准确的说是ID3算法

复兴期:90年代初到21世纪初

1990年, Schapire提出初的Boosting算法。一年后 ,Freund提出了一种效率更高的Boosting算法。
1995年 , Freund和schapire改进了Boosting算法 ,提出了 AdaBoost (Adap tive Boosting)算法。
1995年由瓦普尼克Corina Cortes和科尔特斯Vladimir Vapnik提出了支持向量(support vector machines, SVM )。
2001年,雷曼博士Leo Breiman提出了随机森林(RandomForest,RF)。

蓬勃发展期:21世纪初至今

Hinton在2006年提出了神经网络Deep Learning算法

2015年,为纪念人工智能概念提出60周年,LeCun、Bengio和Hinton推出了深度学习的联合综述。

机器学习的应用

垃圾邮件检测
人脸识别
医疗诊断
智能客服
无人驾驶
专家系统
认知模拟
规划和问题求解
网络信息服务
图像识别
故障诊断
自然语言理解
机器人
博弈

机器学习算法的分类

算法是利用计算机解决待定问题的处理步骤,是有限操作的集合。
按照学习方式不同进行分类:根据学习样本数据不同,对问题有不同的建模方式

  • 有监督学习(学习样本中有结果标记)
  • 无监督学习(学习样本中没有结果标记)
  • 半监督学习(学习样本中部分有结果标记)

按照算法模型进行分类:

  • 回归:建立一个回归方程来预测目标值,用于连续型分布预测
  • 分类:给定大量带标签的数据,计算出未知标签样本的标签取值
  • 聚类:将不带标签的数据根据距离聚集成不同的簇,每一簇数据有共同的特征
  • 关联分析:计算出数据之间的频繁项集合
  • 降维:原高维空间中的数据点映射到低维度的空间中
  • 人工神经网络
  • 深度学习
    回归、分类、聚类、关联分析、降维是传统机器学习算法
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

分数不是数

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值