机器学习模型(一) GBDT

本文深入探讨了GBDT(Gradient Boosting Decision Tree)的原理,包括模型构建、损失函数和优化策略。它能处理分类回归问题,具有高准确性和解释性,但也需要数据预处理。GBDT在预测Yelp评论的"Useful"票数的应用中,通过特征重要性和局部依赖图展示了其解释能力。
摘要由CSDN通过智能技术生成
 

一、   概述

GBDTGradientBoosting Decision Tree/ GBRTGradient Boosting Regression Trees),是一个比较广泛的概念,可以使用不同的损失函数解决分类回归问题,但值得注意的是这里用的决策树总是“回归树”。同时,也是一个准确的,有效的,现成的可以用于回归或者分类问题的模型。包括网页搜索和生态学都有应用。

二、   原理

i.             模型(假设函数)


其中:

    是弱学习其的假设函数

即:

对每个弱分类器结果进行累加


ii.             算法

      

     逐步迭代,其中是能够使得当前模型损失函数最小的

      :

   

   


      GradientBoosting求解这个最小化问题的方法是:总是往损失函数的负梯度方向移动,即



  

  

注:计算损失函数的负梯度在当前模型的值,将它作为残差的估计,对于平方损失函数它就是残差,对于一般损失函数,它就是残差(预测值与真实值的差)的近似值,对于分类问题,实际处理可以加入logistic变化

 

对于步长,使用线搜索(Line Search)的方法,即:


  

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值