回归树quick look

本文详细介绍了CART回归树的基本方法,包括其算法流程,采用自顶向下、贪婪式的递归策略,通过计算RSS最小值划分节点。文章还探讨了停止条件,如最大深度限制和样本数量要求,以及判断分类是否有益的方法。
摘要由CSDN通过智能技术生成

简介

Regression Tree:回归树
Classification And Regression Tree(CART)
用树形结构处理回归问题,每个节点都是对一个属性值的二分类。
输入空间划分为M个单元,每个单元的值为该单元内所有样本的均值
![[Pasted image 20240416191054.png]]

基本方法

算法流程

自顶向下贪婪式递归,启发式搜索
TreeGenerate(D,X)

  1. if 达到停止条件 then return 叶子节点(为D均值)
  2. 生成节点node
  3. for x i x_i xi in X
    1. for s in range( x i x_i xi)
      1. s为界,计算划分后的RSS
      2. 记录使RSS最小的s和 x i x_i xi,记为 s m , x m s_m,x_m sm,xm
  4. s m , x m s_m,x_m sm,xm为划分依据进行划分。
  5. 左孩子TreeGenerate(D \ Di ,X \ Xi), 右孩子。。。

停止条件

  1. 最大深度
  2. 节点样本数
  3. 计算分类是否有益
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值