![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
剑雨星澄
这个作者很懒,什么都没留下…
展开
-
精细解说机器学习模型:XGBoost模型
这篇应该是你见过的讲xgboost的文章里最细的。简单介绍首先需要介绍GBDT,它是一种基于boosting增强策略的加法模型,训练的时候采用前向分布算法进行贪婪的学习,每次迭代都学习一棵CART树来拟合之前 t-1 棵树的预测结果与训练样本真实值的残差。在核心思想不变的情况下,XGBoost对GBDT进行了一系列优化,主要是损失函数进行了二阶泰勒展开,另外还有目标函数加入正则项、支持并行和...原创 2019-11-07 01:27:10 · 1204 阅读 · 0 评论 -
掘金笔记:朴素贝叶斯模型
朴素贝叶斯模型1 - 基础定理与定义条件概率公式:P(A∣B)=P(AB)P(B)P(A|B)=\dfrac{P(AB)}{P(B)}P(A∣B)=P(B)P(AB)全概率公式:P(A)=∑j=1NP(ABi)=∑j=1NP(Bi)P(A∣Bi)P(A)=\sum_{j=1}^N P(AB_i)=\sum_{j=1}^N P(B_i)P(A|B_i)P(A)=j=1∑N...原创 2019-10-22 02:16:33 · 271 阅读 · 0 评论 -
传统机器学习模型解说01:一元线性回归模型
引入年薪和工作年限有关吗?可见两个变量之间存在明显的线性关系,而根据常识,工作年限是因,年薪是果。那么,是否存在某个模型,如图中的一次函数直线,来描述两个变量之间的关系呢?原理简述与背景介绍一元线性回归模型也被称为简单线性回归模型,指模型中只有一个自变量和一个因变量。其原理可以简述为:用一个(二维中的)直线(以及高维中的超平面)去最大程度地拟合样本特征和样本输出标记(即数据点)之间的...原创 2019-09-03 00:45:26 · 2157 阅读 · 0 评论 -
常见的特征降维方法
主成成分分析(PCA)线性判别分析(Linear Discriminant Analysis,LDA)映射后类内方差最小,类间方差最大局部线性嵌入(Locally Linear Embedding,LLE)Isomap求全局最优解,LLE算法计算量较小多维缩放(Multidimensional Scaling,MDS)非线性降维在降维的同时尽量保持欧式距离不变等...原创 2019-09-15 10:07:41 · 6072 阅读 · 0 评论