机器学习和统计模型存在的差异是什么?

13825820-b543ef65ea688262.jpg

机器学习和统计模型是人工智能的两个重要分支,而这两个分支有着十分明显的区别。机器学习和统计模型的差异具体体现在所属的学派、产生时间、基于的假设、处理数据的类型、操作和对象的术语、使用的技术、预测效果和人力投入等等。而这些方面都能从某种程度上区分机器学习和统计模型,在这篇文章中我们就给大家介绍一下机器学习和统计模型的具体区别。

1.学派

机器学习就是计算机科学和人工智能的一个分支,通过数据学习构建分析系统,不依赖明确的构建规则。而统计模型就是数学的分支用以发现变量之间相关关系从而预测输出。

2.诞生年代

机器学习和统计模型的诞生年代是不同的,统计模型的历史已经有几个世纪之久。但是机器学习却是最近才发展起来的。二十世纪90年代,稳定的数字化和廉价的计算使得数据科学家停止建立完整的模型而使用计算机进行模型建立。这催生了机器学习的发展。随着数据规模和复杂程度的不断提升,机器学习不断展现出巨大的发展潜力。

3.假设程度

在假设程度中,机器学习和统计分析也存在差异,统计模型基于一系列的假设。例如线性回归模型假设,具体就是自变量和因变量线性相关、同方差、波动均值为0、观测样本相互独立、波动服从正态分布。而Logistics回归同样拥有很多的假设。即使是非线性回归也要遵守一个连续的分割边界的假设。然而机器学习却从这些假设中脱身出来。机器学习最大的好处在于没有连续性分割边界的限制。同样我们也并不需要假设自变量或因变量的分布。

4.数据区别

机器学习应用广泛。机器学习工具可学习数以亿计的观测样本,预测和学习同步进行。一些算法如随机森林和梯度助推在处理大数据时速度很快。机器学习处理数据的广度和深度很大。但统计模型一般应用在较小的数据量和较窄的数据属性上。

在这篇文章中我们给大家介绍了关于机器学习和统计模型的具体区别的内容,具体包括通过学派、假设程度、数据区别以及诞生年代四个方面来说的,希望这篇文章能够帮助到大家更好地去了解和学习机器学习。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
⼈⼯智能AI、机器学习模型理解 ⼈⼯智能就是机器学习和⼤数据; 机器学习是什么:就是算法模型; 算法模型是什么: 俗地说,模型就是机器学习采⽤的算法。"模型⽂件"⼀般说的是这个算法⽤到的各种输⼊、输出数据的值。 因为机器学习往往需要⼤量的运算,所以有必要将中间变量也存⼊⽂件中,以便可以多次地运算。 机器学习是⼀类算法的通称,具体到某个算法,那模型差异就很⼤了,就算某⼀类算法(⽐如神经元⽹络),它的不同形态(CNN、 RNN、DNN、LSTM)构成的模型也有很⼤的差异。 《统计学习⽅法》上来说,⼀个机器学习的三要素为模型、策略、算法,模型就是我们简单的理解,策略主要是是损失函数和正则化项,算 法是指优化策略的算法 如果你数学很好,可以这么理解。模型就是⼀个函数y = f(x),x是数据的各个特征,y是类别标签,模型就是把特征映射到类别的⼀个函 数。 当然,这只是⼀个简单的模型,如线性模型的函数为y = ax+b,这⾥⾯只有⼀个特征x,多个类别y。 ⼤多数模型的原理都是这简单的模型建⽴起来的; 模型⽂件就是写好的算法下次可以不断地复⽤,如同jar包 python中的模块差不多; 模型就是通过当前数据集得到⼀个复杂的多维函数,可以理解为 y = w1.x1+w2.x2+...+b 只是这个函数极为复杂,他的参数是要随之改 变,⽽y就是我们的⽬标值,这个整体我们可以理解为⼀个策略或者⼀个函数,我们要做的就是优化w和b,使其每次y都跟真实的y⽆限接 近。 运⽤机器学习算法进⾏研究,其实就是寻找⽬标函数的过程。通过构建机器学习模型(形成函数集),⽤训练数据做驱动,寻找与训练数据 匹配,并且在测试数据中表现优异的函数。所以构建机器学习模型就显得⼗分的重要了。以线性回归为例⼦,⼤家可以看⼀下下⾯的图。 在寻找⽬标函数时,假如函数集范围太⼩,正如图左所⽰只是⼀次式项,那么很有可能⽬标函数不在函数集⾥⾯,也就说bias(偏差)⽐较 ⼤,远离了⽬标函数(也就是图中的靶⼼),这是我们经常说的⽋拟合。⽽如果我们尽量把函数集设⼤⼀点(函数集尽可能的⼤就有希望能 够包含⽬标函数),这样bias会变⼩,但是也带来了坏处,模型对噪⾳数据会特别敏感,⼀不⼩⼼就会出现过拟合的情况。因为我们本⾝并 不知道⽬标函数到底长什么样,所以我们就要不断测试修改模型,希望能达到好的效果。下⾯是⼀点tips,⼤家可以参考⼀下。 ⽋拟合:1 增加特征 2 调整为更加复杂的模型 过拟合:1 增加数据量 2 正则化 上⾯说的是传统机器学习模型的设计,那么在深度学习中,我们⼜该如何设计?⾸先⼤家要理解⼀点,为什么要"deep"?下⾯⼤家继 续看图。 ⼤家仔细看图就会发现,1.随着隐藏层的增加,错误率在减低。2. 7X2K 对应的错误率是17.1% ,⽽与之参数量相当的1X16K 对应的错 误率却是22.1% 。 理论上说,只要⼀层隐藏层⾥⾯神经元够多,那么这个模型⾜以接近任何函数。也就是说,我们没必要把神经⽹络弄 deep,但是⼤家看图就会发现,deep 要⽐ ⼀层效果好。其实这就包含了拆分与共享的思想,看图。 原来我也觉得深度学习应该会需要⼤量的数据,事实上并不是,我使⽤mnist数做过实验,在数据量较少时,多层神经⽹络的效果要⽐单层 神经⽹络要好,意不意外?惊不惊喜?所以当你数据较少⼜想⽤深度学习来处理数据时,不妨多搭⼏层。 最后还要谈⼀下 no free lunch理论,no free lunch理论指的是没有最好的算法,只有最适合的算法。深度学习的模型有许多种,⼤家在 选择是⼀定要根据⾃⼰问题来选择模型,⽐如说CNN对处理图像信息就⾮常的有⽤,⽽RNN对处理序列⾮常在⾏。所以⼤家还是要对每种 算法都要了解清楚,选择合适⾃⼰的算法。 --------------------- 作者:ml_lsc 来源:CSDN 原⽂:https://blog.csdn.net/u011421866/article/details/73292141 版权声明:本⽂为博主原创⽂章,转载请附上博⽂链接! ⼀、的发展背景: ⼈⼯智能(Artificial Intelligence,缩写为AI)是对⼈的意识、思维过程进⾏模拟的⼀门新学科。如今,⼈⼯智能从虚⽆缥缈的科学幻想变 成了现实。计算机科学家们在⼈⼯智能的技术核⼼--机器学习(Machine Learning)和(Deep Learning)领域上已经取得重⼤的突 破,机器被赋予强⼤的认知和预测能⼒。回顾历史,在1997年,IBM"深蓝"战胜国际象棋冠军卡斯帕罗夫;在2011年,具备机器学习 能⼒的IBM Waston参加综艺节⽬赢得100万美⾦;在2016年,利⽤深度学习训练的Aplphago成功击败⼈类世界冠军。种种事件表明机 器也可以像⼈类⼀

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值