【西瓜书阅读笔记】第三章 决策树

4.1 基本流程

创建树对数据进行分类(或者回归)。
根结点,内部结点(属性测试),叶结点(决策的结果)

4.2 划分选择

关键:如何划分(希望结点的纯度越来越高)

4.2.1 信息增益

信息熵:度量纯度的指标
信息熵
信息熵Ent(D)越小,纯度越高。

信息增益:信息增益
信息增益越大,纯度得到的提升越大(用于属性的划分)

4.2.2 增益率

为了增加泛化能力(不要选择属性分类太多的)
增益率:

增益率
但是增益率偏好可取值数目较少的属性,也不太好。
应该先挑出信息增益高于平均水平的属性,再挑增益率最高的。

4.2.3 基尼指数

CART决策树用基尼指数来划分属性
基尼指数:随机抽取2个样本,其标记不同类的概率
基尼指数
基尼指数越小,纯度越高

4.3 剪枝处理

为了防止过拟合(因为分支过多了)
预留验证集进行评估

4.3.1 预剪枝

在划分前估计,如果当前这个属性不能有泛化性的提升,则停止划分,标记为叶结点

优点:不仅防止过拟合,还减少了决策树的训练时间和测试时间
缺点:带来欠拟合的风险

4.3.2 后剪枝

先生成决策树,自底向上考察,如果该内部节点替换成叶结点能有泛化性能的提升,则把该子树替换为叶结点
后剪枝比预剪枝保留了更多的分支。
优点:一般不会欠拟合,泛化性优于预剪枝
缺点:训练时间开销大(先建树,又自底向上遍历书)

4.4 连续与缺失值

4.4.1 连续值处理

连续属性离散化技术:二分法【C4.5决策树】
信息增益:(跟上面离散的一样)
划分点:中位点
特点:连续的属性在父节点用了,后代还可以用

4.4.2 缺失值处理(跳过)

需要解决2个问题:
1.属性值缺失,属性划分怎么选择?
2.给定划分,样本属性缺失怎么划分?

4.5 多变量决策树

分类边界的每一段都是与坐标轴平行的
在这里插入图片描述
但实际上,用“斜的”比较好
在这里插入图片描述
这就是多变量决策树
每个内部节点不再是对某个属性,而是对属性的线性组和进行测试
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值