机器学习的常用算法 --- 2016/7/19

  机器学习是数据分析师高级进阶的一个核心技能。分享关于机器学习的文章,没有算法,没有代码,只是能够快速的了解机器学习!

--------------------------------------------------------------------------------------------------------------------------------------------------

  在了解了需要解决的机器学习问题的类型之后,可以开始考虑搜集来的数据的类型以及可以尝试的机器学习算法。在这里介绍一遍最流行的机器学习算法,通过浏览主要的算法来大致了解可以利用的方法是很有帮助的。

  可利用的算法非常之多,困难之处在于既有不同种类的方法,也有对这些方法的扩展。这导致很快就难以区分到底什么才是正统的算法。希望通过两种方式来思考和区分在这个领域中你将会遇到的算法。

  第一种划分算法的方式是根据学习的方式,第二种则是基于形式和功能的相似性。两种方法都是有用的。

学习方式

  基于经验、环境,或者任何我们称之为输入数据的相互作用,一个算法可以用不同的方式对一个问题建模。在机器学习和人工智能教课书中,流行的做法是首先考虑一个算法的学习方式。算法的主要学习方式和学习模型只有几个,逐一介绍,并且给出几个算法和它们适合解决的问题类型来作为例子。

监督学习:输入数据被称为训练数据,它们有已知的标签或者结果,比如垃圾邮件/非垃圾邮件或者某段时间的股票价格。模型的参数确定需要通过一个训练的过程,在这个过程中模型将会要求作出预测,当预测不符时,则需要作出修改。

无监督学习:输入数据不带标签或者没有一个已知的结果,通过推测输入数据中存在的结构来建立模型。这类问题的例子有关联规则学习和聚类。算法的例子包括Apriori算法和K-means算法。

半监督学习:输入数据由带标记和不带标记的组成。合适的预测模型虽然已经存在,但是模型在预测的同时还必须能通过发现潜在的结构来组织数据。这类问题包括分类和回归。典型算法包括对一些其他灵活的模型的推广,这些模型对如何给未标记数据建模做出了一些假设。

强化学习:输入数据作为来自环境的激励提供给模型,且模型必须做出反应。反馈并不像监督学习那样来自于训练的过程,而是作为环境的惩罚或者奖赏。典型问题有系统和机器人控制。算法的例子包括Q学习和时序差分学习。

  当你处理大量数据来对商业决策建模时,通常会使用监督和无监督学习。目前一个热门话题是半监督学习,比如会应用在图像分类中,涉及到的数据集很大但只是包含极少数标记的数据。

-----------------------------------------------------------------------------------------------------------------------------------------------

算法相似性

  通常,我们会把算法按照功能和形式的相似性来区分。比如树形结构和神经网络的方法。这是一种有用的分类方法,但也不是完美的。仍然有些算法很容易就可以被归入好几个类别。比如学习矢量量化,它既是受启发于神经网络的方法,又是基于实例的方法,也有一些算法的名字即描述了它处理的问题,也是某一类算法的名称,比如回归和聚类。正因为如此,你会从不同的来源看到对算法进行不同的归类。就像及其学习算法自身一样,没有完美的模型,只有足够好的模型。

  在这个小节里,将会按照我觉得最直观的方式列出许多流行的机器学习算法。虽然不管是类别还是算法都不是全面详尽的,但我认为它们都具有代表性,有助于对整个领域有一个大致的了解。

回归分析

  回归是这样一种建模方式,它先确定一个衡量模型预测误差的量,然后通过这个量反复优化变量之间的关系。回归方法是统计学的主要应用,被归为统计机器学习。这有些让人迷茫,因为门可以用回归来指代一类问题或一类算法。实际上,回归是一个过程。以下是一些例子:

  普通最小二乘法

  逻辑回归

  逐步回归

  多元自适应样条回归MARS

  局部多项式回归拟合LOESS

  基于实例的学习模型对决策问题进行建模,这些决策基于训练数据中被认为重要的或者模型所必须的实例。这类方法通常会建立一个范例数据库,然后根据某个相似性衡量标准来把新数据和数据库进行比较,从而找到最匹配的项,最后做出预测。因此,基于实例的方法还被叫做“赢者通吃”方法和基于记忆的学习。这种方法的中点在于已有实例的表示以及实例间相似性的衡量标准。

  K最近邻算法KNN

  学习矢量量化LVQ

  自组织映射SOM

正则化方法

  这是对另一种方法(通常是回归分析方法)的扩展,它惩罚复杂度高的模型,倾向推广性好的更加简单的模型。在这里列下了一些正则化的方法,因为他们流行、强大,而且通常只是对其他方法简单的改进。

  岭回归

  套索算法LASSO

  弹性网络

决策树学习

  决策树方法对决策过程进行建模,决策时基于数据中属性的实际数值。决策在树形结构上分叉直到对特定的某个记录能做出预测。在分类后者回归的问题中我们用数据来训练决策树。

  分类与回归数算法CART

  迭代二叉树3代ID3

  C4.5算法

  卡方自动互动检视CHAID

  单层决策树

  随机森林

  多元自适应样条回归MARS

  梯度推进机GBM

贝叶斯算法

  贝叶斯方法是那些明确地分类和回归问题中应用贝叶斯定理的算法。

  朴素贝叶斯算法

  AODE算法

  贝叶斯信度网络BBN

核函数方法

  核函数方法中最为出名的是流行的支持向量机算法,它其实是一系列方法。核函数方法关心的是如何把输入数据映射到一个高纬度的矢量空间,在这个空间中,某些分类或者回归问题可以较容易地解决。

  支持向量机SVM

  径向基函数RBF

  线性判别分析LDA

聚类方法

  就像回归一样,聚类既表示一类问题,也表示一类方法。聚类方法一般按照建模方式来划分:基于质心的或者层级结构的。所有的方法都是利用数据的内在结构来尽量地把数据归入具有最大共性的一类里。

  K均值法

  最大期望算法EM

关联规则学习

  关联规则学习是提取规则的一类算法,这些规则能最好地解释观测到的数据中的变量之间的关系。这些规则能在大型多维数据集中发现重要且在商业上有用的关联,然后进一步被利用。

  Apriori算法

  Eclat算法

人工神经网络

  人工神经网络是受启发与生物神经网络的结构或功能的算法。它们是一类常用在回归和分类问题中的模式匹配方法,但其实这个庞大的子类包含了上百种算法和算法的变形,可以解决各种类型的问题,一些经典流行的方法(已经把深度学习从这个分类中分出来了):

  感知机

  反向传播算法

  Hopfield神经网络

  自适应映射SOM

  学习矢量量化LVQ

深度学习

  深度学习方法是利用便宜冗余的计算资源对人工神经网络的现代版改进。这类方法试图简历大得多也复杂得多的神经网络,就如前面说到的,许多方法都是基于大数据集中非常有限的标记数据来解决半监督学习问题。

  受限玻尔兹曼机RBM

  深度信念网DBM

  卷积神经网络

  层叠自动编码器SAE

降维方法

  如同聚类方法,降维方法试图利用数据中的内在结构来总结或描述数据,所不同的是它以无监督的方式利用更少的信息。这对于可视化高维数据或者为之后的监督学习简化数据都有帮助。

  主成分分析PCA

  偏最小二乘法回归PLS

  萨蒙映射

  多维尺度分析MDS

  投影寻踪

集成方法

  集成方法由多个较弱模型组合而成,这些子模型独立训练,它们的预测结构以某种方式整合起来得出总的预测。很多努力都集中在选择什么类型的学习模型作为子模型,以及用什么方式整合它们的结果。这是一类非常强大的技术,因此也很流行。

  推进技术Boosting

  自展集成Bagging

  适应性推进AdaBoost

  层叠泛化策略Blending

  梯度推进机GBM

  随机森林

 

 

 

  

转载于:https://www.cnblogs.com/pythonMLer/p/5685894.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值