算法
emeitu
这个作者很懒,什么都没留下…
展开
-
分类算法——决策树
决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。在机器学习中,决策树是一个预测模型,他代表的是对象属性与对象值之间的一种映射关系。Entropy(熵) = 系统的凌乱程度。 决策树是一原创 2017-04-07 09:52:40 · 556 阅读 · 0 评论 -
Logistic回归原理及公式推导
原文见 http://blog.csdn.NET/acdreamers/article/details/27365941 Logistic回归为概率型非线性回归模型,是研究二分类观察结果与一些影响因素之间关系的一种多 变量分析方法。通常的问题是,研究某些因素条件下某个结果是否发生,比如医学中根据病人的一些症状来判断它是 否患有某种病。 在讲解Logisti转载 2017-04-10 10:49:28 · 924 阅读 · 0 评论 -
GBDT决策树集成学习残差预测和分类
理解GBDT算法(一)——理论 关于决策树decision tree的组合模型有两种:random forest 和 GBDT (gradient boosting decision tree)。上一篇我们说了《理解随机森林》,这次我们来说下以下GBDT的理论模型,后面还有连续的两片分别将GBDT之应用、GBDT之源码。 1. GBDT的基本思想——积跬转载 2017-04-10 11:06:36 · 1940 阅读 · 0 评论 -
理解随机森林
理解随机森林 随机森林利用随机的方式将许多决策树组合成一个森林,每个决策树在分类的时候投票决定测试样本的最终类别。下面我们再详细说一下随机森林是如何构建的。 随机森林主要包括4个部分:随机选择样本;随机选择特征;构建决策树;随机森林投票分类。 1.随机选择样本 给定一个训练样本集,数量为N,我们使用有放回采样到转载 2017-04-11 11:23:01 · 581 阅读 · 0 评论