树回归、线性回归、Logitic回归

本文详细介绍了树回归中的CART算法,包括回归树和分类树的生成原理。接着,讨论了线性回归的不同方法,如普通最小二乘法、局部加权线性回归、岭回归和前向逐步回归。最后,深入探讨了Logistic回归,解释了其模型参数估计过程,并提到了最大似然估计法和梯度上升算法在模型训练中的应用。
摘要由CSDN通过智能技术生成

树回归

分类与回归树(classification and regression tree,CART)即可用于分类也可以用于回归,由特征选择、树的生成及剪枝组成,一般简称为决策树。

CART生成

决策树的生成就是递归地构建二叉决策树的过程。对回归树用平方误差最小化准则,对分类树用基尼指数(Gini index)最小化准则,进行特征选择,生成二叉树。

回归树的生成

回归树用平方误差最小化准则,所以又称它为最小二乘回归树。
最小二乘回归树生成算法
输入:训练数据集 D D D
输出:回归树 f ( x ) f(x) f(x)
在训练数据集所在的输入空间,递归将每个区域划分为两个子区域并决定每个子区域上的输出值,构建二叉决策树;
(1)选择最优切分变量 j j j与切分点 s s s,求解:
min ⁡ j , s [ ∑ x i ∈ R 1 ( j , s ) ( y i − c 1 ) 2 + ∑ x i ∈ R 2 ( j , s ) ( y i − c 2 ) 2 ] (5.12) c 1 = a v e ( y i ∣ x i ∈ R 1 ( j , s ) ) c 2 = a v e ( y i ∣ x i ∈ R 2 ( j , s ) ) \begin{array}{ll} \min_{j,s} \left[\sum_{x_i \in R_1(j,s)}(y_i - c_1)^2 + \sum_{x_i \in R_2(j,s)}(y_i - c_2)^2 \right] \qquad \qquad \text{(5.12)}\\[2ex] c_1 = ave(y_i | x_i \in R_1(j,s)) \\[2ex] c_2 = ave(y_i | x_i \in R_2(j,s)) \end{array} minj,s[xiR1(j,s)(yic1)2+xiR2(j,s)(yic2)2](5.12)c1=ave(yixiR1(j,s))c2=ave(yixiR2(j,s))遍历变量 j j j,对固定的切分变量 j j j扫描切分点 s s s,选择使式(5.21)达到最小值得对 ( j , s ) (j,s) (j,s)
(2)用选定的对 ( j , s ) (j,s) (j,s)划分区域并决定相应的输出值
R 1 ( j , s ) = { x ∣ x ( j ) ⩽ s } R 2 ( j , s ) = { x ∣ x ( j ) > s } c ^ m = 1 N m ∑ x i ∈ R m ( j , s ) y i , x ∈ R m , m = 1 , 2 \begin{array}{ll} R_1(j,s)=\{x|x^{(j)} \leqslant s\}\\[2ex] R_2(j,s)=\{x|x^{(j)} \gt s\} \\[2ex] \hat c_m = \frac1{N_m}\sum_{x_i \in R_m(j,s)}y_i, \quad x \in R_m, \quad m=1,2 \end{array} R1(j,s)={ xx(j)s}R2(j,s)={ xx(j)>s}c^m=Nm1xi

  • 5
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值