GBDT推导

GBDT(Gradient Boosting Decision Tree)是一种提升方法,通过结合多个弱预测器构建强预测器。本文介绍了GBDT的算法原理,特别是回归问题中采用的最小二乘法。并探讨了GBDT的并行化实现,包括按行样本并行化和特征分裂点计算的并行化,以提高计算效率。同时提出,通过特征值直方图采样可以优化寻找最优分裂点的过程,避免遍历所有特征值。
摘要由CSDN通过智能技术生成

boosting是提升的意思





这是算法部分,看例题

GBDT中的max_depth参数是指每个回归树的最大深度。它控制了回归树的叶子节点的最大层数,也就是决策树的分支深度。在GBDT中,每个回归树都是通过学习前一棵树的残差来进行训练的,max_depth参数可以限制每棵树的复杂度,防止过拟合。 具体来说,max_depth参数限制了每个回归树的分裂次数,即树的最大深度。较小的max_depth值会使得每棵树更加简单,有较少的叶子节点和分支,限制了树的复杂度。较大的max_depth值会使得每棵树更加复杂,有更多的叶子节点和分支,提高了树的拟合能力。 在实际使用中,选择max_depth参数的取值要根据具体问题和数据集的特点来确定。如果数据集很大,特征较多,可以适当增大max_depth来提高模型的表达能力。如果数据集较小,特征较少,可以适当减小max_depth来避免过拟合。 参考文献: 在本文中,我们首先引出回归树与梯度提升算法结合的优势;然后详细推导GBDT回归算法的原理,并用实际案例解释GBDT回归算法;其次不仅用Python3实现GBDT回归算法,还用sklearn实现GBDT回归算法;最后,介绍了GBDT回归任务常见的损失函数、GBDT的正则化和我对GBDT回归算法若干问题的思考。GBDT中的树是回归树(不是分类树),GBDT可以用来做回归预测,这也是我们本文讲的GBDT回归算法,但是GBDT调整后也可以用于分类任务。让我们期待一下GBDT分类算法,在分类任务中的表现吧! 【10】GBDT详细讲解&常考面试题要点,地址:https://mp.weixin.qq.com/s/M2PwsrAnI1S9SxSB1guHdg 【7】GBDT:梯度提升决策树,地址:https://www.jianshu.com/p/005a4e6ac775<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [深入理解GBDT回归算法](https://blog.csdn.net/qq_42722197/article/details/124811872)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值