GDBT

CART是一种既能做分类又能做回归的决策树算法,以其二叉树特性区别于ID3和C4.5。提升树是基于决策树的提升方法,通过逐步优化损失函数构建模型。本文详细介绍了CART回归树和分类树的构建过程,以及提升树的基本原理、损失函数和正则化。同时,提到了在Sklearn中的基本参数设置。
摘要由CSDN通过智能技术生成

CART

决策树有两种类型:分类树和回归树,其中分类树输出是样本的类别,回归树输出的是连续的实数。CART(Classification And Regression Tree)既可以做分类也可以做回归。

CART是在给定输入随机变量X的条件下输出随机变量Y的条件概率分布学习方法。CART书假设决策树是二叉树,内部节点的取值为‘是’和‘否’,这样的决策树等价于递归的二分每一个特征,将输出空间即特征空间分为有限个单元,并在这些单元确定预测的概率分布,也就是在输入给定的条件下输出的条件概率分布。

CART 树与ID3 决策树和 C4.5 决策树的重要区别:

  • CART 树是二叉树,而后两者是N 叉树
    由于是二叉树,因此 CART 树的拆分不依赖于特征的取值数量。因此CART 树也就不像ID3 那样倾向于取值数量较多的特征。

  • CART 树的特征可以是离散的,也可以是连续的
    而后两者的特征是离散的。如果是连续的特征,则需要执行分桶来进行离散化

CART算法分两步:

  • 决策树生成:用训练数据生成尽可能大的决策树。
  • 决策树剪枝:用验证数据基于损失函数最小化的标准对生成的决策树剪枝。
CART 回归树(主要参考《统计学习方法》)

在这里插入图片描述

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值