回归树--CART

CART的全称是Classification And Regression Tree,于1984年由Breiman等人提出,顾名思义它可用于分类和回归,本文只讲它在回归上的应用。


对于回归树有要这么几点认识:

  1. 可以捕获Y对Xi的依赖性,上图的结果显示Y对X7和X8没有依赖。也可以充实我们对自变量之间关系的认识。
  2. 树的形式简洁、高效。
  3. 节点的每次分裂都把原样本空间划分为互不相交的两个子集。每次都根据某个局部标准,选择最好的划分,因此它是一种贪心的爬山算法。
  4. 越往树的底层深入,节点覆盖的样本越少,即随着树的生长,估计越来越不可靠。
  5. 叶节点同样覆盖了一定数目(1个或多个)的样本。
  6. 回归树估计的准确率很大程序上依赖于样本的质量。
  7. 因素Xi可以是连续值,也可以是离散值 。
  8. 回归树拟合出来的是一个分段零阶函数。
上面也说了每次节点分裂时依据某个局部标准选择最好的划分,一种常用的标准就是:最小平方误差(LS)。

n是样本个数,<x i ,y i >是一个数据点,r是预测值。
如果叶节点值取常数,为了使LS最小,应赋予它该叶节点所覆盖的t个样本的目标值的平均值。

D t
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值