![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习算法
文章平均质量分 85
辰星M
保持学习,知识分享
展开
-
[机器学习算法]逻辑回归模型、优缺点及spark ml机器学习库实现LR
目录一、逻辑回归模型-log损失函数1.1 模型定义1.2 损失函数1.3 梯度下降求解参数二、利用最大似然估计求解逻辑回归模型参数三、逻辑回归模型优缺点分析四、spark ml机器学习库实现逻辑回归模型五、离散特征作为模型输入一、逻辑回归模型-log损失函数1.1 模型定义 1.2 损失函数 ...原创 2018-08-01 18:52:54 · 2665 阅读 · 0 评论 -
[机器学习算法]决策树CART和随机森林模型
目录一、决策树CART1.1分类决策树1.2回归决策树1.3决策树优点与缺点1.4 决策树剪枝算法二、随机森林RF2.1随机森林的生成2.2 随机森林的特点一、决策树CART CART分类回归树是一种典型的二叉决策树,可以处理分类或者回归问题。如果待预测结果是离散型数据,则CART生成分类决策树;如果待预测结果是连续型数据,则CART生成回归...原创 2018-09-05 19:24:19 · 4866 阅读 · 0 评论 -
梯度提升树GBDT模型原理及spark ML实现
目录一、GBDT模型原理1.1 GB(Gradient Boost)算法1.2 GBDT模型二、spark ML机器学习库中GBDT使用案例三、GBDT与Boost算法比较四、 GBDT与RF比较一、GBDT模型原理1.1 GB(Gradient Boost)算法GB算法直观理解,将损失函数的负梯度在当前模型的值,当做下个模型训练的目标函数(第3,...原创 2018-10-17 17:42:18 · 3974 阅读 · 0 评论 -
XGBoost模型理解(python实现)与GBDT/RF模型对比
目录一、XGBoost模型理解1、损失函数定义2、正则项3、树结构4、XGBoost算法总结:二、XGBoost、GBDT、RF三种集成模型比较三、XGBoost模型Python实现一、XGBoost模型理解监督学习的目标函数定义:1、损失函数定义 损失函数通常有残差平方和(回归问题),log损失函数(分类问题),以下以残差平方和为例...原创 2018-10-30 18:19:01 · 1853 阅读 · 0 评论 -
树模型与线性模型的融合模型(Python实现)
目录一、树模型与线性模型的融合模型二、Python sklearn实现GBDT+LR融合模型一、树模型与线性模型的融合模型树模型GBDT原理:https://blog.csdn.net/woniu201411/article/details/83114226线性模型LR原理:https://blog.csdn.net/woniu201411/article/details/81...原创 2018-12-06 16:22:11 · 2392 阅读 · 0 评论 -
支持向量机SVM
目录1、线性可分支持向量机1.1、间隔最大化1.2、对偶函数1.3、分隔超平面、决策函数、支持向量2、线性支持向量机2.1、软间隔最大化2.2、对偶函数2.3、分离超平面、决策函数、支持向量3、非线性支持向量机3.1、决策函数3.2、核函数4、支持向量机SVM与逻辑回归LR比较1、线性可分支持向量机 学习一个分类器:分类决策函数即...原创 2019-01-15 19:29:25 · 449 阅读 · 0 评论