决策树-剪枝处理

前言:理解《机器学习》P79-83中的决策树剪枝示例。


决策树生成

原始数据集如下所示,前10行为训练集,后7行为验证集,由此数据集可生成如下所示的决策树。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-1LIledaa-1674722994891)(G:\Backup\image-typora-master\image-20230125153350210.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-gU8cd67M-1674722994893)(G:\Backup\image-typora-master\2023-01-25_175703.png)]

下面解释未进行剪枝操作的决策树为何如上图所示。

不对解释每个结点和分支,仅重点解释为何先由属性「脐部」来划分类别,以及「脐部」=凹陷后只需要按「色泽」划分,不再需要按其他的属性划分。

根结点包含所有训练集 D D D,共计 1 、 2 、 3 、 6 、 7 、 10 、 14 、 15 、 16 、 17 {1、2、3、6、7、10、14、15、16、17} 123671014151617 的10个样例,其中正例占比=反例占比=5/10。故,根结点的信息熵: E n t = − ∑ k = 1 2 p k log ⁡ 2 p k = 1 Ent=-\sum ^{2}_{k=1}p_{k}\log _{2}p_{k}=1 Ent=k=12pklog2pk=1

若以属性「色泽」为类别划分的属性,得:

色泽训练样例正例 p 1 p_1 p1反例 p 2 p_2 p2信息熵 E n t ( D i ) Ent(D^i) Ent(Di)
D 1 D^1 D1青绿 { 1 , 6 , 10 , 17 } \{1,6,10,17\} {1,6,10,17}2/42/41
D 2 D^2 D2乌黑 { 2 , 3 , 7 , 15 } \{2,3,7,15\} {2,3,7,15}3/41/40.811
D 3 D^3 D3浅白 { 14 , 16 } \{14,16\} {14,16}010

信息增益: G a i n ( D , 色泽 ) = E n t ( D ) − ∑ v = 1 3 ∣ D v ∣ ∣ D ∣ E n t ( D v ) = 1 − ( 4 10 ∗ 1 + 4 10 ∗ 0.811 + 2 10 ∗ 0 ) = 0.2756 ‬ Gain(D, 色泽)=Ent(D)-\sum ^{3}_{v=1} \dfrac{\rvert D^v \rvert}{\rvert D \rvert}Ent\left( D^{v}\right)=1-(\dfrac{4}{10}*1+\dfrac{4}{10}*0.811+\dfrac{2}{10}*0)=0.2756‬ Gain(D,色泽)=Ent(D)v=13DDvEnt(Dv)=1(1041+1040.811+1020)=0.2756‬

同理,计算出其他属性的信息增益,根蒂:0.1145;敲声:0.1735;纹理:0.1735;脐部:0.2756;触感:0。属性「脐部」和「色泽」的信息增益同样大,可任选其一的「脐部」作为划分属性。

此外,当「脐部」=凹陷时,训练样例为D’={1,2,3,14},「色泽」=青绿、乌黑、浅白的训练样例分别为:{1}、{2,3}、{14},各类中类别相同无需再划分。

树的剪枝–预剪枝与后剪枝

剪枝(pruning)可以应对过拟合,剪枝处理分为预剪枝(prepruning)和后剪枝(post-pruning)。

剪枝特点优点缺点
预剪枝决策树生成过程中,对每个结点划分前进行估计,若划分不能提升决策树泛化性能,则不划分边生成决策树边确定是否划分,可减少决策树的训练时间和测试时间存在欠拟合的风险,即有些划分可能当前不利于模型性能,但后续划分可能有利于模型
后剪枝生成决策树后,自底向上对非叶结点考察,若取消划分能提升决策树泛化性能,则取消欠拟合风险小。通常比预剪枝保留更多分支,泛化性能更优因是生成决策树后再剪枝,训练和测试时间更多

下面借助预剪枝中是否对根结点按属性「脐部」来划分和是否对「脐部」=凹陷的训练样本按色泽来划分,理解预剪枝和后剪枝的过程。

是否对根结点按属性「脐部」来划分:

  • 不按「脐部」来划分后,因为训练集中好、坏瓜类别个数相等,所以可选择好瓜作为类别标记,则对于单结点的决策树,验证集中编号 { 4 , 5 , 8 } \{4,5,8\} {4,5,8} 样例被划分正确,验证集精度为 3 / 7 3/7 3/7
  • 按「脐部」来划分,验证集中正确分类的编号是: { 4 , 5 , 8 , 11 , 12 } \{4,5,8,11,12\} {4,5,8,11,12},错误分类的编号是: { 13 , 9 } \{13,9\} {13,9},故精度为 5 / 7 5/7 5/7

因此,按「脐部」划分可提升验证集精度。

是否对「脐部」=凹陷的训练样本按色泽来划分:划分前后验证集精度下降,故不划分,具体如下图所示。

注意:确定是否按「色泽」划分时,验证集中确定分类的编号要考虑「脐部」=稍凹和平坦中正确的编号。
在这里插入图片描述



参考文章或视频:

决策树总结(三)剪枝 - 知乎 (zhihu.com)

0413剪枝处理_哔哩哔哩___bilibili

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值