XGB算法框架梳理

本文详细梳理了XGBoost算法,包括其原理、损失函数(如MSE、MAE、Huber、Log-Cosh)、正则化目的与方法(L1、L2范数)、缺失值处理和应用场景。XGBoost通过二阶泰勒展开优化损失函数,支持并行处理和处理稀疏数据。文章还对比了XGBoost与GBDT的区别,并列举了关键参数如eta、min_child_weight、max_depth等的解释。
摘要由CSDN通过智能技术生成

XGB算法框架梳理

目录

1. XGB算法原理

  1. 目标
    建立K个回归树,使得树群的预测值尽量接近真实值(准确率)而且有尽量大的泛化能力(更为本质的东西),从数学角度看这是一个泛函最优化,多目标,定义目标函数:
    在这里插入图片描述
    在这里插入图片描述
    直观上看,目标要求预测误差尽量小,叶子节点尽量少,节点数值尽量不极端

  2. 目标实现策略

    贪心策略+最优化
    贪心策略:就是决策时刻按照当前目标最优化决定
    最优化:XGBoost采用对损失函数进行二阶Taylor展开来近似
    方式: 先建完全树后剪枝

  3. 推导

    (1) 泰勒展开式
    在这里插入图片描述
    (2) xgboost 损失函数求最值
    在这里插入图片描述

2. 损失函数

机器学习中所有的算法都需要最大化或最小化一个函数,这个函数被称为“目标函数”。其中,我们一般把最小化的一类函数,称为“损失函数”。它能根据预测结果,衡量出模型预测能力的好坏。
在实际应用中,选取损失函数会受到诸多因素的制约,比如是否有异常值、机器学习算法的选择、梯度下降的时间复杂度、求导的难易程度以及预测值的置信度等等。因此,不存在一种损失函数适用于处理所有类型的数据。

损失函数大致可分为两类:分类问题的损失函数和回归问题的损失函数

适用于回归问题的损失函数

  • 均方误差
    在这里插入图片描述
    均方误差(MSE)是最常用的回归损失函数,计算方法是求预测值与真实值之间距离的平方和
  • 平均绝对值误差(也称L1损失)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值