人工智能AI、机器学习模型理解

人工智能就是机器学习和大数据;

机器学习是什么:就是算法模型;

算法模型是什么:

俗地说,模型就是机器学习采用的算法。“模型文件”一般说的是这个算法用到的各种输入、输出数据的值。
因为机器学习往往需要大量的运算,所以有必要将中间变量也存入文件中,以便可以多次地运算。
机器学习是一类算法的通称,具体到某个算法,那模型的差异就很大了,就算某一类算法(比如神经元网络),它的不同形态(CNN、RNN、DNN、LSTM)构成的模型也有很大的差异。

《统计学习方法》上来说,一个机器学习的三要素为模型、策略、算法,模型就是我们简单的理解,策略主要是是损失函数和正则化项,算法是指优化策略的算法

如果你数学很好,可以这么理解。模型就是一个函数y = f(x),x是数据的各个特征,y是类别标签,模型就是把特征映射到类别的一个函数。
当然,这只是一个简单的模型,如线性模型的函数为y = ax+b,这里面只有一个特征x,多个类别y。
大多数模型的原理都是这简单的模型建立起来的;

模型文件就是写好的算法下次可以不断地复用,如同jar包 python中的模块差不多;

模型就是通过当前数据集得到一个复杂的多维函数,可以理解为 y = w1.x1+w2.x2+...+b 只是这个函数极为复杂,他的参数是要随之改变,而y就是我们的目标值,这个整体我们可以理解为一个策略或者一个函数,我们要做的就是优化w和b,使其每次y都跟真实的y无限接近。

运用机器学习算法进行研究,其实就是寻找目标函数的过程。通过构建机器学习模型(形成函数集),用训练数据做驱动,寻找与训练数据匹配,并且在测试数据中表现优异的函数。所以构建机器学习模型就显得十分的重要了。以线性回归为例子,大家可以看一下下面的图。 
 取自李宏毅老师的课程ppt
在寻找目标函数时,假如函数集范围太小,正如图左所示只是一次式项,那么很有可能目标函数不在函数集里面,也就说bias(偏差)比较大,远离了目标函数(也就是图中的靶心),这是我们经常说的欠拟合。而如果我们尽量把函数集设大一点(函数集尽可能的大就有希望能够包含目标函数),这样bias会变小,但是也带来了坏处,模型对噪音数据会特别敏感,一不小心就会出现过拟合的情况。因为我们本身并不知道目标函数到底长什么样,所以我们就要不断测试修改模型,希望能达到好的效果。下面是一点tips,大家可以参考一下。 
欠拟合:1 增加特征 2 调整为更加复杂的模型 
过拟合:1 增加数据量 2 正则化

上面说的是传统机器学习中模型的设计,那么在深度学习中,我们又该如何设计?首先大家要理解一点,为什么要“deep”?下面大家继续看图。

 同样是取自李宏毅老师的课堂PPT
大家仔细看图就会发现,1.随着隐藏层的增加,错误率在减低。2. 7X2K 对应的错误率是17.1% ,而与之参数量相当的1X16K 对应的错误率却是22.1% 。 理论上说,只要一层隐藏层里面神经元够多,那么这个模型足以接近任何函数。也就是说,我们没必要把神经网络弄deep,但是大家看图就会发现,deep 要比 一层效果好。其实这就包含了拆分与共享的思想,看图。

 统一处理 单层隐藏层

拆分 共享 多层隐藏层
原来我也觉得深度学习应该会需要大量的数据,事实上并不是,我使用mnist数做过实验,在数据量较少时,多层神经网络的效果要比单层神经网络要好,意不意外?惊不惊喜?所以当你数据较少又想用深度学习来处理数据时,不妨多搭几层。

最后还要谈一下 no free lunch理论,no free lunch理论指的是没有最好的算法,只有最适合的算法。深度学习的模型有许多种,大家在选择是一定要根据自己问题来选择模型,比如说CNN对处理图像信息就非常的有用,而RNN对处理序列非常在行。所以大家还是要对每种算法都要了解清楚,选择合适自己的算法。
--------------------- 
作者:ml_lsc 
来源:CSDN 
原文:https://blog.csdn.net/u011421866/article/details/73292141 
版权声明:本文为博主原创文章,转载请附上博文链接!

 

一、机器学习的发展背景:人工智能

人工智能(Artificial Intelligence,缩写为AI)是对人的意识、思维过程进行模拟的一门新学科。如今,人工智能从虚无缥缈的科学幻想变成了现实。计算机科学家们在人工智能的技术核心--机器学习(Machine Learning)和深度学习(Deep Learning)领域上已经取得重大的突破,机器被赋予强大的认知和预测能力。回顾历史,在1997年,IBM“深蓝”战胜国际象棋冠军卡斯帕罗夫;在2011年,具备机器学习能力的IBM Waston参加综艺节目赢得100万美金;在2016年,利用深度学习训练的Aplphago成功击败人类世界冠军。种种事件表明机器也可以像人类一样思考,甚至比人类做得更好。

 

目前,人工智能在金融、医疗、制造等行业得到了广泛应用,全球投资从2012年的5.89亿美元猛增至2016年50多亿美元。麦肯锡预计,到2025年人工智能应用市场的总值将达到1270亿美元。与此同时,麦肯锡通过对2016年人工智能市场的投资进行深入分析,发现有将近60%的资金并购围绕机器学习来布局。其中,基于软件的机器学习初创公司比基于机器的机器人公司更受投资欢迎。从2013 年到2016 年,这一领域的投资复合年均增长率达到约80%。由此可见,机器学习已经成为目前人工智能技术发展的主要方向。

 

二、机器学习与人工智能、深度学习的关系

在介绍机器学习之前,先需要对人工智能、机器学习和深度学习三者之间的关系进行梳理。目前业界最常见的划分是:

 

人工智能是使用与传统计算机系统完全不同的工作模式,它可以依据通用的学习策略,读取海量的“大数据”,并从中发现规律、联系和洞见,因此人工智能能够根据新数据自动调整,而无需重设程序。

 

机器学习是人工智能研究的核心技术,在大数据的支撑下,通过各种算法让机器对数据进行深层次的统计分析以进行“自学”;利用机器学习,人工智能系统获得了归纳推理和决策能力;而深度学习更将这一能力推向了更高的层次。

 

深度学习则是机器学习算法的一种,隶属于人工神经网络体系,现在很多应用领域中性能最佳的机器学习都是基于模仿人类大脑结构的神经网络设计而来的,这些计算机系统能够完全自主地学习、发现并应用规则。相比较其他方法,在解决更复杂的问题上表现更优异,深度学习是可以帮助机器实现“独立思考”的一种方式。

 

总而言之,人工智能是社会发展的重要推动力,而机器学习,尤其是深度学习技术就是人工智能发展的核心,它们三者之间是包含与被包含的关系。如图1所示。

 

图1 人工智能、机器学习、深度学习之间的关系

 

三、机器学习:实现人工智能的高效方法

从广义上来说,机器学习是一种能够赋予机器学习的能力以此让它完成直接编程无法完成的功能的方法。但从实践的意义上来说,机器学习是一种通过利用数据,训练出模型,然后使用模型预测的一种方法。国外有些学者对机器学习进行了定义大同小异,有学者认为,机器学习是对能通过经验自动改进的计算机算法的研究;也有学者认为,机器学习是指利用数据或以往的经验,以此优化计算机程序的性能标准。由此可知,机器学习是通过经验或数据来改进算法的研究,通过算法让机器从大量历史数据中学习规律,得到某种模式并利用此模型预测未来,机器在学习的过程中,处理的数据越多,预测结果就越精准。

 

机器学习在人工智能的研究中具有十分重要的地位。它是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。从20世纪50年代人们就开始了对机器学习的研究,从最初的基于神经元模型以及函数逼近论的方法研究,到以符号演算为基础的规则学习和决策树学习的产生,以及之后的认知心理学中归纳、解释、类比等概念的引入,至最新的计算学习理论和统计学习的兴起,机器学习一直都在相关学科的实践应用中起着主导作用。现在已取得了不少成就,并分化出许多研究方向,主要有符号学习、连接学习和统计学习等。

 

(一)机器学习的发展历程

机器学习发展过程大体可分为以下四个阶段:

 

1.50年代中叶到60年代中叶

在这个时期,所研究的是“没有知识”的学习,即“无知”学习;其研究目标是各类自组织系统和自适应系统;其主要研究方法是不断修改系统的控制参数以改进系统的执行能力,不涉及与具体任务有关的知识。指导本阶段研究的理论基础是早在40年代就开始研究的神经网络模型。随着电子计算机的产生和发展,机器学习的实现才成为可能。这个阶段的研究导致了模式识别这门新科学的诞生,同时形成了机器学习的二种重要方法,即判别函数法和进化学习。塞缪尔的下棋程序就是使用判别函数法的典型例子。不过,这种脱离知识的感知型学习系统具有很大的局限性。无论是神经模型、进化学习或是判别函数法,所取得的学习结果都很有限,远不能满足人们对机器学习系统的期望。在这个时期,我国研制了数字识别学习机。

 

2.60年代中叶至70年代中叶

本阶段的研究目标是模拟人类的概念学习过程,并采用逻辑结构或图结构作为机器内部描述。机器能够采用符号来描述概念(符号概念获取),并提出关于学习概念的各种假设。本阶段的代表性工作有温斯顿(Winston)的结构学习系统和海斯·罗思(Hayes Roth)等的基于逻辑的归纳学习系统。虽然这类学习系统取得较大的成功,但只能学习单一概念,而且未能投入实际应用。此外,神经网络学习机因理论缺陷未能达到预期效果而转入低潮。因此,使那些对机器学习的进展抱过大希望的人们感到失望。他们称这个时期为“黑暗时期”。

 

 

3.70年代中叶至80年代中叶

在这个时期,人们从学习单个概念扩展到学习多个概念,探索不同的学习策略和各种学习方法。机器的学习过程一般都建立在大规模的知识库上,实现知识强化学习。尤其令人鼓舞的是,本阶段已开始把学习系统与各种应用结合起来,并取得很大的成功,促进机器学习的发展。在出现第一个专家学习系统之后,示例归约学习系统成为研究主流,自动知识获取成为机器学习的应用研究目标。1980年,在美国的卡内基梅隆大学(CMU)召开了第一届机器学习国际研讨会,标志着机器学习研究已在全世界兴起。此后,机器归纳学习进入应用。1986年,国际杂志《机器学习》

  • 19
    点赞
  • 95
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
⼈⼯智能AI机器学习模型理解 ⼈⼯智能就是机器学习和⼤数据; 机器学习是什么:就是算法模型; 算法模型是什么: 俗地说,模型就是机器学习采⽤的算法。"模型⽂件"⼀般说的是这个算法⽤到的各种输⼊、输出数据的值。 因为机器学习往往需要⼤量的运算,所以有必要将中间变量也存⼊⽂件中,以便可以多次地运算。 机器学习是⼀类算法的通称,具体到某个算法,那模型的差异就很⼤了,就算某⼀类算法(⽐如神经元⽹络),它的不同形态(CNN、 RNN、DNN、LSTM)构成的模型也有很⼤的差异。 《统计学习⽅法》上来说,⼀个机器学习的三要素为模型、策略、算法,模型就是我们简单的理解,策略主要是是损失函数和正则化项,算 法是指优化策略的算法 如果你数学很好,可以这么理解模型就是⼀个函数y = f(x),x是数据的各个特征,y是类别标签,模型就是把特征映射到类别的⼀个函 数。 当然,这只是⼀个简单的模型,如线性模型的函数为y = ax+b,这⾥⾯只有⼀个特征x,多个类别y。 ⼤多数模型的原理都是这简单的模型建⽴起来的; 模型⽂件就是写好的算法下次可以不断地复⽤,如同jar包 python中的模块差不多; 模型就是通过当前数据集得到⼀个复杂的多维函数,可以理解为 y = w1.x1+w2.x2+...+b 只是这个函数极为复杂,他的参数是要随之改 变,⽽y就是我们的⽬标值,这个整体我们可以理解为⼀个策略或者⼀个函数,我们要做的就是优化w和b,使其每次y都跟真实的y⽆限接 近。 运⽤机器学习算法进⾏研究,其实就是寻找⽬标函数的过程。通过构建机器学习模型(形成函数集),⽤训练数据做驱动,寻找与训练数据 匹配,并且在测试数据中表现优异的函数。所以构建机器学习模型就显得⼗分的重要了。以线性回归为例⼦,⼤家可以看⼀下下⾯的图。 在寻找⽬标函数时,假如函数集范围太⼩,正如图左所⽰只是⼀次式项,那么很有可能⽬标函数不在函数集⾥⾯,也就说bias(偏差)⽐较 ⼤,远离了⽬标函数(也就是图中的靶⼼),这是我们经常说的⽋拟合。⽽如果我们尽量把函数集设⼤⼀点(函数集尽可能的⼤就有希望能 够包含⽬标函数),这样bias会变⼩,但是也带来了坏处,模型对噪⾳数据会特别敏感,⼀不⼩⼼就会出现过拟合的情况。因为我们本⾝并 不知道⽬标函数到底长什么样,所以我们就要不断测试修改模型,希望能达到好的效果。下⾯是⼀点tips,⼤家可以参考⼀下。 ⽋拟合:1 增加特征 2 调整为更加复杂的模型 过拟合:1 增加数据量 2 正则化 上⾯说的是传统机器学习模型的设计,那么在深度学习中,我们⼜该如何设计?⾸先⼤家要理解⼀点,为什么要"deep"?下⾯⼤家继 续看图。 ⼤家仔细看图就会发现,1.随着隐藏层的增加,错误率在减低。2. 7X2K 对应的错误率是17.1% ,⽽与之参数量相当的1X16K 对应的错 误率却是22.1% 。 理论上说,只要⼀层隐藏层⾥⾯神经元够多,那么这个模型⾜以接近任何函数。也就是说,我们没必要把神经⽹络弄 deep,但是⼤家看图就会发现,deep 要⽐ ⼀层效果好。其实这就包含了拆分与共享的思想,看图。 原来我也觉得深度学习应该会需要⼤量的数据,事实上并不是,我使⽤mnist数做过实验,在数据量较少时,多层神经⽹络的效果要⽐单层 神经⽹络要好,意不意外?惊不惊喜?所以当你数据较少⼜想⽤深度学习来处理数据时,不妨多搭⼏层。 最后还要谈⼀下 no free lunch理论,no free lunch理论指的是没有最好的算法,只有最适合的算法。深度学习的模型有许多种,⼤家在 选择是⼀定要根据⾃⼰问题来选择模型,⽐如说CNN对处理图像信息就⾮常的有⽤,⽽RNN对处理序列⾮常在⾏。所以⼤家还是要对每种 算法都要了解清楚,选择合适⾃⼰的算法。 --------------------- 作者:ml_lsc 来源:CSDN 原⽂:https://blog.csdn.net/u011421866/article/details/73292141 版权声明:本⽂为博主原创⽂章,转载请附上博⽂链接! ⼀、的发展背景: ⼈⼯智能(Artificial Intelligence,缩写为AI)是对⼈的意识、思维过程进⾏模拟的⼀门新学科。如今,⼈⼯智能从虚⽆缥缈的科学幻想变 成了现实。计算机科学家们在⼈⼯智能的技术核⼼--机器学习(Machine Learning)和(Deep Learning)领域上已经取得重⼤的突 破,机器被赋予强⼤的认知和预测能⼒。回顾历史,在1997年,IBM"深蓝"战胜国际象棋冠军卡斯帕罗夫;在2011年,具备机器学习 能⼒的IBM Waston参加综艺节⽬赢得100万美⾦;在2016年,利⽤深度学习训练的Aplphago成功击败⼈类世界冠军。种种事件表明机 器也可以像⼈类⼀

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值