决策树demo

 

算法      支持模型                树结构    特征选择               连续值处理    缺失值处理            剪枝
ID3         分类                      多叉树    信息增益                 不支持          不支持                不支持
C4.5       分类                      多叉树    信息增益比              支持               支持                    支持
CART     分类,回归           二叉树    基尼系数,均方差    支持               支持                   支持
决策树的优点
1)简单直观,生成的决策树很直观。 
2)基本不需要预处理,不需要提前归一化,处理缺失值。 
3)使用决策树预测的代价是O(log2m)。 m为样本数。 
4)既可以处理离散值也可以处理连续值。很多算法只是专注于离散值或者连续值。 
5)可以处理多维度输出的分类问题。 
6)相比于神经网络之类的黑盒分类模型,决策树在逻辑上可以得到很好的解释 
7)可以交叉验证的剪枝来选择模型,从而提高泛化能力。 
8) 对于异常点的容错能力好,健壮性高

决策树的局限性
1)决策树算法非常容易过拟合,导致泛化能力不强。可以通过设置节点最少样本数量和限制决策树深度来改进。 
2)决策树会因为样本发生一点点的改动,就会导致树结构的剧烈改变。这个可以通过集成学习之类的方法解决。 
3)寻找最优的决策树是一个NP难的问题,我们一般是通过启发式方法,容易陷入局部最优。可以通过集成学习之类的方法来改善。 
4)有些比较复杂的关系,决策树很难学习,比如异或。这个就没有办法了,一般这种关系可以换神经网络分类方法来解决。 
5)如果某些特征的样本比例过大,生成决策树容易偏向于这些特征。这个可以通过调节样本权重

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值