决策树优化及回归树

学习打卡内容:

  • 阅读《李航统计学习方法》的65-74页

  • 学习Gini指数

  • 学习回归树

  • 剪枝

 

 

前面任务八里面我们已经了解到策树以及决策树的几种算法如

  • ID3算法

  • C4.5算法

 我们已经了解,在生成了决策树之后,可能发生过拟合现象,我们需要对已经生成的树自下而上进行剪枝,将树变得更简单,从而使它具有更好的泛化能力。具体来说,就是去掉过于细分的叶节点,使其回退到父节点,甚至更高的节点,然后将父节点或者更高的节点改为新的叶节点。

 可以看出,决策树学习算法包含特征选择、决策树的生成与决策树的剪枝过程.由于决策树表示一个条件概率分布,所以深浅不同的决策树对应着不同复杂度的概率模型.决策树的生成对应于模型的局部选择,决策树的剪枝对应于模型的全局选择.决策树的生成只考患局部最优,相对地,决策树的剪枝则考虑全局最优.

 

那么今天我们来了解CART(Classification and regression tree)算法,该模型由Breiman等人在1984年提出,是应用广泛的决策树学习方法,CART同样由特征选择、树的生成及剪枝组成,既可以用于分类也可以用于回归.


       CART是在给定输入随机变量X条件下输出随机变量Y的条件概率分布的学习方法. CART假设决策树是二叉树,内部结点特征的取值为“是”和“否”,左分支是取值为“是”的分支,右分支是取值为“否”的分支这样的决策树等价于递归地二分每个特征,将输入空间即特征空间划分为有限个单元,并在这些单元上确定预测的概率分布,也就是在输入给定的条件下输出的条件概率分布。

         Cart算法由两部组成:

  •          决策树生成:基于训练数据生成决策树,生成的决策树要尽量大;
  •          决策树剪枝:用验证数据集对已生成的书进行剪枝并选择最优子树,这时用损失函数最小作为剪枝的标准

CART树分类:

  • 目标变量是类别型——分类树:Gini指数
  • 目标变量是连续型——回归树:平方误差最小化

 

基尼指数Gini(D)表示集合D的不确定性,基尼指数Gini(D,A)表示经A=a分割后集合D的不确定性.基尼指数值越大,样本集合的不确定性也就越大,这一点与熵相似.

现在我们再来看CART回归树的生成,即(Least Squares regression tree)最小二成回归树生成:

在生成回归树之后,我们现在来看树的剪枝,CART树的剪枝和前面所讲的两种算法的剪枝不同:

 

参考资料:

李航《统计学习方法》

https://blog.csdn.net/Crafts_Neo/article/details/92797049

https://blog.csdn.net/qq_40981899/article/details/92803223

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
为了优化python决策树回归,可以尝试以下几种方法: 1. 调整参数:可以通过调整决策树回归模型的参数来优化性能。一些常见的参数包括的最大深度(max_depth)、叶子节点最小样本数(min_samples_leaf)、最小分割样本数(min_samples_split)等。根据具体情况,可以逐步调整这些参数的值,以找到最佳的组合。 2. 特征选择:通过选择合适的特征变量,可以提高决策树回归模型的性能。可以使用特征选择方法,如信息增益、基尼指数等,来评估和选择最具有预测能力的特征。 3. 剪枝:决策树的过拟合问题可以通过剪枝来解决。剪枝是指通过修剪决策树的一些分支或叶子节点,来减少模型的复杂度,提高泛化能力。可以使用预剪枝(在构建时进行剪枝)或后剪枝(在构建后进行剪枝)的方法来实现。 4. 集成学习:集成学习是将多个决策树模型组合成一个更强大的模型的技术。常见的集成学习方法包括随机森林和梯度提升。通过使用集成学习方法,可以进一步提高决策树回归模型的性能和稳定性。 可以根据具体的需求和数据集特点选择适合的优化方法。同时,还可以使用交叉验证等技术来评估不同优化方法的效果,并选择最佳的优化策略。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [python 决策树回归 decision tree 参数意义](https://blog.csdn.net/HaileeRPIJNU/article/details/128042862)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值