第四章 决策树总结

目录

第四章 决策树总结

1. 基本流程

 2.划分选择

ID3决策树:使用信息增益来划分属性

C4.5决策树:使用信息增益率划分属性

CART决策树:使用基尼指数划分属性

  3.剪枝处理

预剪枝:

后剪枝:

4.连续与缺失值


第四章 决策树总结

这一章主要包括基本流程、划分选择、剪枝处理、连续与缺失值等。

 

1. 基本流程

什么是决策树?

决策树是基于树的结构来处理决策的,决策树的生成是一个递归的过程,如下图例子。

 2.划分选择

 不同的决策树划分的方法不同:

  • ID3决策树:使用信息增益来划分属性

 

 缺点:倾向于选择属性类别多的,但对于属性中值分类较多的,不具有代表性。

  • C4.5决策树:使用信息增益率划分属性

注意:因为增益率对可取值数目较少的属性有所偏好,因为C4.5算法并不足直接选择增益率最大的候选划分属性,而是使用了一个启发式先从候选划分属性中找出信息增益高于平均水平的属性,再从中选择增益率最高的。

  • CART决策树:使用基尼指数划分属性

  3.剪枝处理

预剪枝:

自顶而下,比较划分前和划分后的验证集精度,来判断是否划分当前节点。如果划分后,精度未提升,不进一步划分。

优点:使得决策树部分分支没有展开,降低了过拟合的风险,节省了训练时间。

缺点:有可能出现欠拟合。

后剪枝:

自下而上,先训练整棵树,然后从叶子节点向上剪枝,根据验证集精度判断是否决定剪枝(即是否将当前节点换为叶子节点)。

优点:欠拟合风险很小,泛化性能也很高。

缺点:训练时间比预剪枝时间长。

4.连续与缺失值

连续值处理:

采用二分法对连续属性进行处理,分别计算二分点划分区域的信息增益。

缺失值处理:

1.计算有缺失属性的信息增益时,先计算无缺失部分样本的信息增益,然后乘权重(无缺失在总体中的比例);

2.当缺失该属性的样本进入分支时,以不同的权重分别进入不同的分支(权重为该分支样本占总样本的比例)。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值