机器学习项目中Xgboost深入理解(二)梯度及GB的理解

Xgboost 与 GBDT同源,那么所谓的梯度是什么意思呢?G、B又代表什么。

1. 梯度Gradient

梯度是一个向量(矢量),表示梯度是方向导数在某一点的最大值。理解为某函数(可以指损失函数)在某点处的方向导数,沿着该方向,梯度可以取得最大值,即函数沿着此方向(梯度的方向)变化最快变化率(梯度的模)最大。

2. 梯度的维度

        f\left ( x,y \right )=x^{2}+y^{2},在空间中是一个锥面,那么在点 (x, y) 处,梯度表示:(2x, 2y),此时梯度维度是 1 * 2。

        假设,当前使用的模型是GBDT,每个样本的特征维度是 1 * m,m表示特征数目,解空间维度就是 1 * m,因此对应的梯度也应该是 1 * m
        此处是个人理解,希望能和大家一起讨论一下这个问题,如果有问题请及时联系。

3. 梯度和梯度下降的关联

梯度下降法的定义:如果实值函数 F(x) 在 a 处可微且有定义,那么 F(x) 在 a 点沿着梯度相反的方向-\bigtriangledown F(a) 下降最快。

通常,我们需要求解的是损失函数最小值,因此选择调整参数的方向是梯度的反向。

4. GB(Gradient Boosting) 的含义

        翻译为"梯度提升",但是其实是一种梯度下降的思想,总体来看它是将多个弱分类器结合起来得到强分类器的结果。不同于adaboost每次加大分错样本的权重,GB则是每次拟合上一预测的残差。

        FrideMan提出:梯度提升算法,利用最速下降的近似方法,即利用损失函数的负梯度在当前模型的值,作为回归问题中提升树算法的残差的近似值,拟合一个回归树。

        树模型的梯度提升算法,是在函数空间进行搜索,找到最优的函数,也是梯度下降,所谓的提升指的是模型整体精度提升:

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值