class3 决策树之回归树基础

本文深入探讨了决策树中的回归树概念,详细介绍了其在预测连续数值型数据时的工作原理和构建过程,包括如何选择最佳分裂特征以及如何进行剪枝以防止过拟合。通过对实例的分析,读者将能理解回归树在实际问题中的应用和优势。
摘要由CSDN通过智能技术生成
前情提要:
(1)回归处理的是连续型变量
(2)分类处理的是分类型变量



回归树:
几乎所有参数,属性及接口都和分类树一摸一样。需要注意的是,在回归树中,没有标签分布是否均衡的问题,因此没有class_weight这样的参数



criterion:1)分类树:不纯度的计算。可以选择基尼系数(gini)或者信息熵(entropy)2)回归树:没有不纯度的计算。因为处理连续型变量,和分类型变量有区别。




【criterion重要参数】
回归树衡量分枝质量的指标,支持的标准有3种:
(1)mse:均方误差mean squared error。在回归中最常用,mse越小越好。这种方法通过使用叶子节点的均值来最小化L2损失。本质是样本真实数据与回归结果的差异 。
(2)friedman_mse:费尔德曼均方误差。这种指标使用费尔德曼针对潜在分枝中的问题改进后的均方误差。
(3)mae:绝对平均误差mean absolute error。这种指标使用叶节点的中值来最小化L1损失。




【重要属性】
(1)clf.feature_importances_

 
 
【重要接口】
apply,fit,predict,score
注意:1)回归树的接口score返回的是R平方,并不是MSE。
    (2)R平方可以为正为负(如果模型的残差平方和远远大于模型的总平方和,模型非常糟糕,R平方就会为负)。而均方误差永远为正。

    (3)虽然均方误差永远为正,但是sklearn当中使用均方误差作为评判标准时,却是计算“负均方误差”
'''
交叉验证cross_val_score:
(1)避免测试集和训练集的划分导致模型不同的常用方法
(2)将数据划分为n份,依此使用其中一份作为测试集,其他n-1份作为训练集。因此用交叉验证n次的结果求出的平均值,是对模型效果的一个更好的度量
'''


from sklearn.datasets import load_boston          # 波士顿房价(连续性)       红酒数据(分类型)
from sklearn.model_selection import cross_val_score
from sklearn.tree import DecisionTreeRegressor
'''
【注意】
(1)回归树不需要划分训练集和测试集,因为交叉验证会自动划分数据集。
(2)而分类树需要划分训练集和测试集。

【cross_val_score】
(1)regressor      前面写啥,这里就写啥
(2)boston.data    只需要给出完整数据,不需要划分训练集和测试集
(3)boston.target  只需要给出完整数据,不需要划分训练集和测试集
(4)cv             把数据划分为10份,其中1份作为测试集,而另外9份作为训练集。一共做10次交叉验证。
(5)scoring = 'neg_mean_squared_error'  若不填此值,则返回R平方。若填此值,则返回负的均方误差

【cross_val_score输出结果】
(1)默认返回R平方,可能为正为负。若使用R平方来评估模型,则R平方越接近1越好。    R平方范围:[-1,1],越接近1越好。越大越好。
(2ÿ
在sklearn中,决策树回归是通过构建回归来进行预测的。回归的结构与分类类似,但在叶节点上存储的是一个连续值,而不是离散的类别。通过对特征的逐层划分,回归可以将输入的样本分成不同的区域,并为每个区域预测一个连续的输出值。 决策树回归的基本概念包括: 1. 回归的构建:从根节点开始,按照决策树分类属性逐层往下划分,直到叶节点,获得分类结果。 2. 分裂准则:决策树回归使用的分裂准则一般是最小化平方误差(MSE)或平均绝对误差(MAE)。 3. 剪枝:为了防止过拟合,决策树回归可以通过剪枝操作来降低模型复杂度。 在sklearn中,可以使用DecisionTreeRegressor类来构建决策树回归模型。通过fit方法传入训练数据,模型会自动学习并构建回归。然后可以使用predict方法对新的数据进行预测,得到连续的输出值。 总结起来,sklearn的决策树回归是一种基于回归的预测方法,通过对特征的逐层划分,将输入的样本分成不同的区域,并为每个区域预测一个连续的输出值。它是一种灵活且易于解释的预测模型,适用于处理连续型的目标变量。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [sklearn中的决策树回归)](https://blog.csdn.net/qq_33761152/article/details/123976106)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* [机器学习--sklearn之决策树分类+回归)](https://blog.csdn.net/qq_36758914/article/details/104298371)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值