人工智能十大流行算法

1c0e4f778eeba91c6a2188eefa63f7aa.gif

0b41e6b97c49309dbea481d34c3e1bbc.png

导读:

本文为有志于成为数据科学家或对此感兴趣的读者们介绍最流行的机器学习算法。

98897baa3a7814cca4dc733df548b300.png

作者:Fahim ul Haq

译者:刘志勇,策划:赵钰莹

来源:InfoQ(ID:infoqchina)

1cf99062874d5f9b7b01eb935d9518a3.png

机器学习是该行业的一个创新且重要的领域。我们为机器学习程序选择的算法类型,取决于我们想要实现的目标。

现在,机器学习有很多算法。因此,如此多的算法,可能对于初学者来说,是相当不堪重负的。今天,我们将简要介绍 10 种最流行的机器学习算法,这样你就可以适应这个激动人心的机器学习世界了!

让我们言归正传!

01 线性回归

线性回归(Linear Regression)可能是最流行的机器学习算法。线性回归就是要找一条直线,并且让这条直线尽可能地拟合散点图中的数据点。它试图通过将直线方程与该数据拟合来表示自变量(x 值)和数值结果(y 值)。然后就可以用这条线来预测未来的值!

这种算法最常用的技术是最小二乘法(Least of squares)。这个方法计算出最佳拟合线,以使得与直线上每个数据点的垂直距离最小。总距离是所有数据点的垂直距离(绿线)的平方和。其思想是通过最小化这个平方误差或距离来拟合模型。

a2977475c0f532bf601fa73bdf0e2b84.png

例如,简单线性回归,它有一个自变量(x 轴)和一个因变量(y 轴)。

02 逻辑回归

逻辑回归(Logistic regression)与线性回归类似,但它是用于输出为二进制的情况(即,当结果只能有两个可能的值)。对最终输出的预测是一个非线性的 S 型函数,称为 logistic function, g()。

这个逻辑函数将中间结果值映射到结果变量 Y,其值范围从 0 到 1。然后,这些值可以解释为 Y 出现的概率。S 型逻辑函数的性质使得逻辑回归更适合用于分类任务。

da0961db677d8228cdc8309db823f44d.png

逻辑回归曲线图,显示了通过考试的概率与学习时间的关系。

03 决策树

决策树(Decision Trees)可用于回归和分类任务。

在这一算法中,训练模型通过学习树表示(Tree representation)的决策规则来学习预测目标变量的值。树是由具有相应属性的节点组成的。

在每个节点上,我们根据可用的特征询问有关数据的问题。左右分支代表可能的答案。最终节点(即叶节点)对应于一个预测值。

每个特征的重要性是通过自顶向下方法确定的。节点越高,其属性就越重要。

9ff27ea1c0abb76ca06856564156c6f9.png

决定是否在餐厅等候的决策树示例。

04 朴素贝叶斯

朴素贝叶斯(Naive Bayes)是基于贝叶斯定理。它测量每个类的概率,每个类的条件概率给出 x 的值。这个算法用于分类问题,得到一个二进制“是 / 非”的结果。看看下面的方程式。

1b8ac6f1f6e5e0a5f6f5af86dae53cd1.png

朴素贝叶斯分类器是一种流行的统计技术,可用于过滤垃圾邮件!

05 支持向量机(SVM)

支持向量机(Support Vector Machine,SVM)是一种用于分类问题的监督算法。支持向量机试图在数据点之间绘制两条线,它们之间的边距最大。为此,我们将数据项绘制为 n 维空间中的点,其中,n 是输入特征的数量。在此基础上,支持向量机找到一个最优边界,称为超平面(Hyperplane),它通过类标签将可能的输出进行最佳分离。

超平面与最近的类点之间的距离称为边距。最优超平面具有最大的边界,可以对点进行分类,从而使最近的数据点与这两个类之间的距离最大化。

23ee38d78da0520f35b2de00afec373a.png

例如,H1 没有将这两个类分开。但 H2 有,不过只有很小的边距。而 H3 以最大的边距将它们分开了。

06 K- 最近邻算法(KNN)

K- 最近邻算法(K-Nearest Neighbors,KNN)非常简单。KNN 通过在整个训练集中搜索 K 个最相似的实例,即 K 个邻居,并为所有这些 K 个实例分配一个公共输出变量,来对对象进行分类。

K 的选择很关键:较小的值可能会得到大量的噪声和不准确的结果,而较大的值是不可行的。它最常用于分类,但也适用于回归问题。

用于评估实例之间相似性的距离可以是欧几里得距离(Euclidean distance)、曼哈顿距离(Manhattan distance)或明氏距离(Minkowski distance)。欧几里得距离是两点之间的普通直线距离。它实际上是点坐标之差平方和的平方根。

beba30283011cedea206b8aa58628570.png

▲KNN 分类示例

07 K- 均值

K- 均值(K-means)是通过对数据集进行分类来聚类的。例如,这个算法可用于根据购买历史将用户分组。它在数据集中找到 K 个聚类。K- 均值用于无监督学习,因此,我们只需使用训练数据 X,以及我们想要识别的聚类数量 K。

该算法根据每个数据点的特征,将每个数据点迭代地分配给 K 个组中的一个组。它为每个 K- 聚类(称为质心)选择 K 个点。基于相似度,将新的数据点添加到具有最近质心的聚类中。这个过程一直持续到质心停止变化为止。

5d276262149452ddf31bdc3e0c455142.png

08 随机森林

随机森林(Random Forest)是一种非常流行的集成机器学习算法。这个算法的基本思想是,许多人的意见要比个人的意见更准确。在随机森林中,我们使用决策树集成(参见决策树)。

为了对新对象进行分类,我们从每个决策树中进行投票,并结合结果,然后根据多数投票做出最终决定。

27248d00517ac7c434dc5a6bdcc47df0.png

  1. 在训练过程中,每个决策树都是基于训练集的引导样本来构建的。

  2. 在分类过程中,输入实例的决定是根据多数投票做出的。

09 降维

由于我们今天能够捕获的数据量之大,机器学习问题变得更加复杂。这就意味着训练极其缓慢,而且很难找到一个好的解决方案。这一问题,通常被称为“维数灾难”(Curse of dimensionality)。

降维(Dimensionality reduction)试图在不丢失最重要信息的情况下,通过将特定的特征组合成更高层次的特征来解决这个问题。主成分分析(Principal Component Analysis,PCA)是最流行的降维技术。

主成分分析通过将数据集压缩到低维线或超平面 / 子空间来降低数据集的维数。这尽可能地保留了原始数据的显著特征。

c8f8bf0661596a611ea622c73e157194.png

可以通过将所有数据点近似到一条直线来实现降维的示例。

10 人工神经网络(ANN)

人工神经网络(Artificial Neural Networks,ANN)可以处理大型复杂的机器学习任务。神经网络本质上是一组带有权值的边和节点组成的相互连接的层,称为神经元。在输入层和输出层之间,我们可以插入多个隐藏层。人工神经网络使用了两个隐藏层。除此之外,还需要处理深度学习。

人工神经网络的工作原理与大脑的结构类似。一组神经元被赋予一个随机权重,以确定神经元如何处理输入数据。通过对输入数据训练神经网络来学习输入和输出之间的关系。在训练阶段,系统可以访问正确的答案。

如果网络不能准确识别输入,系统就会调整权重。经过充分的训练后,它将始终如一地识别出正确的模式。

9bca1a1cf379e0607821557c9077f75f.png

每个圆形节点表示一个人工神经元,箭头表示从一个人工神经元的输出到另一个人工神经元的输入的连接。

接下来是什么?现在,你已经了解了最流行的机器学习算法的基础介绍。你已经准备好学习更为复杂的概念,甚至可以通过深入的动手实践来实现它们。如果你想了解如何实现这些算法,可以参考 Educative 出品的 Grokking Data Science 课程,该课程将这些激动人心的理论应用于清晰、真实的应用程序。

祝你学习愉快!

作者介绍:

Fahim ul Haq,曾在 Facebook、Microsoft 工作。Educative.io 联合创始人。Educative 旨在帮助学生使用交互式课程来学习编程知识。

原文链接:

https://towardsdatascience.com/the-top-10-ml-algorithms-for-data-science-in-5-minutes-4ffbed9c8672

RECOMMEND

推荐阅读

d5c329f090b1965b7033f67e4f6bb507.png

01

fff579e1fe209b518c783c4f92c9b70c.png


北京大学林宙辰教授领衔著作,多位院士推荐

作者:林宙辰 , 李欢 , 方聪著

推荐阅读

Michael I. Jordan院士、徐宗本院士、罗智泉院士联袂推荐,北京大学林宙辰教授领衔撰写。以介绍机器学习中的优化算法为主要内容,以当前机器学习会议的热门话题加速算法为主线,涵盖机器学习中常用的凸优化、非凸优化,以及随机优化和分布式优化。

6665bcfbdcde5454465a4c4e06e64a04.png

02

3e79b750118940ae2bee4d8f65860bb9.png

《机器学习算法》

作者:[美]安柯·莫特拉(Ankur Moitra) 著

麻省理工学院“机器学习算法”课程教材

推荐阅读

本书探索理论计算机科学和机器学习这两个领域能够互相借鉴的知识,以此把它们关联起来。本书介绍机器学习中的重要模型和主要问题,并以一种容易理解的方式介绍该领域的前沿研究成果以及现代算法工具,包括矩量法、张量分解法和凸规划松弛法。

d2098fff6156982c00d75dfd4761cae8.gif

bbfbc190dd5b9bf1df49f6ba37d74296.png

扫码关注【华章计算机】视频号

每天来听华章哥讲书

96874eb7332a47d0b2e33ee8c2076c4f.gif

更多精彩回顾

书讯 | 2月书讯(下)| 新年到,新书到!

书讯 | 2月书讯 (上)| 新年到,新书到!

资讯 | 2022,6G发展确已升温

书单 | 6本书,读懂2022年最火的边缘计算

干货 | 前端应用和产品逻辑的核心:交互流

收藏 | Three.js 的 3D 粒子动画:群星送福

干货 | 情人节,让我们一睹数学的浪漫

资讯 | TensorFlow技术主管皮特·沃登离职,重返斯坦福读博!

干货 | 数据治理的这些事儿,90%的人搞不清

25c09be27559f95f456887df335921f4.gif

8623695d0e8cdc436999b2a012d8be49.gif

点击阅读全文购买

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值