目录
一、GBDT模型原理
1.1 GB(Gradient Boost)算法
GB算法直观理解,将损失函数的负梯度在当前模型的值,当做下个模型训练的目标函数(第3,4步)。沿着损失函数负梯度方向迭代,使得损失函数越来越小,模型偏差越来越小。
1.2 GBDT模型
GBDT模型将决策树CART放入GB模型框架中,获得一个集成的模型。
回归问题:
解决回归问题时,采用损失函数为残差平方和:
损失函数负梯度为(残差和):
分类问题:
目录
GB算法直观理解,将损失函数的负梯度在当前模型的值,当做下个模型训练的目标函数(第3,4步)。沿着损失函数负梯度方向迭代,使得损失函数越来越小,模型偏差越来越小。
GBDT模型将决策树CART放入GB模型框架中,获得一个集成的模型。
回归问题:
解决回归问题时,采用损失函数为残差平方和:
损失函数负梯度为(残差和):
分类问题: