【机器学习】决策树的优缺点

一:决策树的缺点

1.如果你的边界很光滑动,决策树不会很好用。也就是说当你有不连续的实例时,决策树才表现最好。


2. 如果有很多不相关的变量,决策树表现的不好。决策树的工作是通过找到变量间的相互作用。


3. 数据框架:树的每次分裂都减少了数据集。有意地创造分裂将会潜在地引进偏差(bias)


4. 高方差和不稳定性:运用贪婪策略到决策树方差,找到树的正确的开始点会影响最终的结果。也就是说早期的小的改变,之后都会有大的影响。所以,如果,举个例子,从你的世界里找出两个不同的样例,两个样例的开始点将会很不同。

(可能会有不同的方差)这会导致完全不同的结果。

 

5.不稳定性。扰乱一点,改动一点值,决策树就会改变。我们想要我们的分类器对噪声是健壮的,所以这不是我们期望的。

 

6.决策树不会给你正确的答案,它会给你许多可能的答案。改变树的根结点,从另一个变量开始,你可能会得到不同的树,哪个是对的呢?

 

7. 改变the size of bins,即划分连续属性的段的大小。比如年龄从0-200,你可以划分为1-10,11-20,这时size of bins是10. 如果你划分成1-20,21-40,那么size of bins 是20.

 

8.改变random seed 随机种子也会改变决策树。对另一个样例重复这个过程,你将会得到另一个树。自己做足够的排列,你将会得到你的树。

 

9.树的算法,通常使用卡方检验(chi-square) 去决定任何特定分裂的影响。但是即使在决定之前,算法已经尝试了多个变量的组合去找到最好的分裂。


参考资料:https://www.quora.com/What-are-the-disadvantages-of-using-a-decision-tree-for-classification


  • 1
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值