xgboost

本文详细介绍了XGBoost的核心概念,包括其作为boosting算法的特性、损失函数、评估指标和参数调整。损失函数涵盖二分类逻辑回归和多分类问题,评估指标包括RMSE和错误率。文章还探讨了XGBoost如何处理节点划分、缺失值以及优化策略,如L1和L2正则化。此外,列举了关键参数如学习率、alpha、lambda、gamma等,以及如何通过近似算法提高效率。
摘要由CSDN通过智能技术生成

1 介绍xgboost

1.1

xgboost是boosting算法的一种,是多个表现一般的学习器结合成的强分类器。

在目标函数上,增加了结构风险,也就是正则化项,L1和L2正则,L1是树叶子节点个数,L2是叶子节点打分的平方

在目标函数的优化上,采用二阶泰勒展开,使用了二阶导数,然后令偏导等于0,于是就可以计算出每一个叶子节点的预测分数

以及最小损失

1.2 损失函数:

二分类逻辑回归

多分类softmax

每次迭代的模型:gbtree树模型CART,gblinear线性模型,linear booster很少用到

1.3评估指标:

回归:rmse 均方根误差

分类:错误率,1-准确率

1.4 参数

通用参数:

  • 选择线性模型还是树模型
  • silent:训练的过程是否输出信息
  • nthread线程数

模型参数:(树模型的参数)

  • 学习率
  • alpha: L1前的系数(在公式中没有看到,只看到γT)
  • lambda:L2前的系数
  • gamma: 阈值,节点分裂所需的最小损失函数下降值
  • min_child_weight:叶子节点样本最小权重和,和GBM的 min_child_leaf 参数类似,但不完全一样。XGBoost的这个参数是最小样本权重的
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值