4.3.1有监督学习(三) - 决策树(Decision Tree) - 剪枝(Pruning)

本文介绍了决策树的剪枝方法,包括预剪枝和后剪枝,旨在防止过拟合。剪枝通过留出法在测试集上评估,保留模型的泛化能力。预剪枝在树生成过程中停止划分,而后剪枝在树生成后从叶结点向上检查。通过实例展示了剪枝过程和效果,强调了样本量和合理划分的重要性。
摘要由CSDN通过智能技术生成

简介

决策树是与有监督学习中的常用方法。决策树的算法多见于分类问题中,即我们常说的分类树(Classification Tree);少数情况下,决策树也可以用于连续问题,即回归树(Regression Tree)。若构建决策树的自变量过多,会产生高维度、过拟合等问题,因此,需要在全树的基础上进行剪枝,保留最有效的自变量,删除不那么重要的自变量。这一过程,就叫剪枝。

一句话解释版本:

剪枝分为前剪枝与后剪枝,通过留出法在测试集上比对剪枝前后的效果来判定是否剪枝。

 

数据分析与挖掘体系位置

决策树是有监督学习中的一种模型。所以在数据分析与数据挖掘中的位置如下图所示。

 

剪枝的目的

对决策树进行剪枝的目的是为了防止过拟合(Overfitting)问题。

过拟合就是值学习器把样本学的太好了,把一些只属于训练集的特性也当作了一般性规律处理。在决策树中,过多的分支会使模型将一些个性化特征视为一般性特征,降低了泛化能力。因此就需要我们通过剪枝减少分支(自变量)个数。

 

剪枝的方法

剪枝的方法分为:预剪枝(pre-pruning)与后剪枝(post-pruning)。<

  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值