整理下比较常用的机器学习算法的汇总比较,包括:
下文有 思维导图文件
线性回归
逻辑回归
决策树
随机森林
支持向量机
朴素贝叶斯
KNN 算法
K-均值算法
提升方法(Boosting)
GBDT
优化算法
卷积神经网络
-
线性回归
简述
定义:线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。
这种函数是一个或多个称为回归系数的模型参数的线性组合(自变量都是一次方)。只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归。 -
逻辑回归
简述
Logistic 回归算法基于 Sigmoid 函数,或者说 Sigmoid 就是逻辑回归函数。Sigmoid 函数定义如下:[公式]。函数值域范围(0,1)。 -
决策树
简述
定义:分类决策树模型是一种描述对实例进行分类的树形结构。决策树由结点和有向边组成。结点有两种类型:内部结点和叶结点。内部结点表示一个特征或属性,叶结点表示一个类。 -
随机森林
简介
随机森林指的是利用多棵树对样本进行训练并预测的一种分类器。 -
支持向量机(SVM)
简述
定义:SVM 是一种二类分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,即支持向量机的学习策略便是间隔最大化,最终可转化为一个凸二次规划问题的求解。 -
朴素贝叶斯
简述
朴素贝叶斯是基于贝叶斯定理与特征条件独立假设的分类方法。 -
KNN 算法
简述
k 近邻(KNN)是一种基本分类与回归方法。 -
Kmeans 算法
简述
K-均值(Kmeans)是最普及的聚类算法,算法接受一个未标记的数据集,然后将数据集聚类成不同的组。 -
提升(Boosting)方法
简述
提升方法(boosting)是一种常用的统计学习方法,在分类问题中,它通过改变训练样本的权重,学习多个分类器,并将这些分类器进行线性组合,提供分类的性能。 -
GBDT
简述
GBDT 是一个基于迭代累加的决策树算法,它通过构造一组弱的学习器(树),并把多颗决策树的结果累加起来作为最终的预测输出。 -
优化算法
常见的最优化方法有梯度下降法、牛顿法和拟牛顿法、共轭梯度法等等
鄙人 习惯于用思维导图 故 把以上 算法 用思维导图的形式做了 总结汇总 如图
链接如下 请打赏 赚点货币 以下载 我需的其他资源
链接:https://pan.baidu.com/s/1L6BYA6DQ9LSi3GFyLokbGA
提取码:kqtc