梯度提升决策树(GBDT:GradientBoostingDecisionTree)算法是集成学习中boosting的一种。总体思路是利用每个弱学习器计算当前输出与真实值的残差,然后讲每个学习器输出的残差进行累加,以求接近真实值。训练过程可以用下面的公式来表示:
f m ( x ) = f m − 1 ( x ) + T m ( x , Δ m ) {f\mathop{ {} } \nolimits_{ {m} } { \left( {x} \right) } =f\mathop{ {} } \nolimits_{ {m-1} } { \left( {x} \right) } +T\mathop{ {} } \nolimits_{ {m} } { \left( {x, \Delta \mathop{ {} } \nolimits_{ {m} } } \right) } } fm(x)=fm−1(x)+Tm(x,Δm)
其中,fm为
梯度提升决策树(GBDT)算法简介
最新推荐文章于 2024-04-10 11:04:31 发布