决策树CART算法原理的理解

首先应该清楚回归树与分类树的本质区别在于模型的输出值不同,如果输出值为连续值则为回归树,如果为离散值则为分类树。

一、CART回归决策树算法原理

(一)、回归树的生成

假设现在已有训练数据集
在这里插入图片描述
并且假设已经将输入空间划分为M个单元R1,R2,……RM,此时如果给定输入空间的一个划分,那么回归树在这个划分上的预测误差即为(用平方误差表示如下):
在这里插入图片描述
那么(此处假设为基于平方误差最小的准则)此回归树模型在每个划分单元上的最优输出值即为
在这里插入图片描述
上面公式的含义就是Rm单元内包括的样本对应的数据集中y值的平均值

最优特征及最优切分点的选择

那么现在的问题就在于依据什么原则去找到最佳的划分,现在假设样本共有k个特征(k维),假设现在选择第j维和它此时的取值为s,作为划分数据集的特征以及特征值(切分点),将数据集划分为两部分R1,R2:
在这里插入图片描述
我们选

  • 1
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值