分类 之_决策树

思路梳理:

  决策树

        |————Bagging[bootstrap抽样、投票分类]

        |————Boosting[bootstrap抽样、分错元组权重上升、分类器上也加权重进而判断]

        |————RandomForest[bootstrap抽样、n个特征找2~3个特种建树分类、Cart算法(基尼系数、不剪枝),有利于并行化]

             #个人觉得RF胡来,就是x预测x,结果还是x

             #建树方面:ID3(信息增益)  C4.5(信息增益率)   CART(基尼系数,后剪枝)   P221_韩家炜

                   |———以上,无非基于信息论折腾简单的数学公式,剪不剪枝or先剪后剪,

                   |———没必要依据死理,具体问题具体分析 [ps: 之所以RF效果好,是基于信息熵建树有问题,这也未可知啊...]

                   |———(但软件中封装好了,用的时候还是了解下,较好 ;不行自己改)

 

 

  回归树

        |————决策变量输出为连续变量

             [其不需要经典回归中的独立性、正态性、线性、光滑性;但保证准确需要大量的数据]

  #待研究  GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree)

转载于:https://www.cnblogs.com/JoyHan/p/5618682.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值