理论-决策树小补充

之前的决策树只简单介绍了决策树思想,决策树还有多种类型,做一个白话的小总结,待补充完善。

ID3算法使用信息增益选择属性,C4.5用信息增益率,克服信息增益容易选择取之类别偏多的特征的不足!!

ID3,C4.5都只用于分类问题;

CART(Classification And Regression Tree)即可用于分类,也可用于回归,sklearn中使用的是CART算法,可以做分类(DecisionTreeClassifier),也可以做回归(DesicionTreeRegression).
CART是二叉树.
作为分类树时,特征可以连续(需要转化为离散数据)/离散,但标签数据为离散,节点分裂时使用Gini系数(Gini系数同熵值原理相似,越大表示数据不确定性越大,越小表示不确定性越小,样本属于同一类的概率越大).
作为回归树时,特征通常也是连续属性,标签数据为连续.

GBDT(Gradient Boosting Decision Tree),多棵决策树累加值作为最终结果。GBDT中的树都是回归树,不是分类树。是Boosting算法,但注意和AdaBoost区分。
GDBT一般适用于回归问题(线性/非线性).也可以用于二分类,但输出结果不是直接的类别,可以设定阈值,大于阈值为1类,小于阈值为0类。

XGBoost是对GBDT进行了完善,思想类似,中间的计算过程进行了改进,使得计算效率更高,模型性能更好!

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值