独家 | XGBoost介绍:用监督学习来预测期望寿命

本文介绍了XGBoost在回归预测中的应用,通过人类发展指数数据集,展示了如何利用XGBoost进行提升树模型的训练和特征重要性分析,探讨了模型的超参数调整和结果评估,揭示了模型预测寿命的特征关联性。
摘要由CSDN通过智能技术生成

640?wx_fmt=png

作者:Luciano Strika

翻译:吴振东

校对:车前子

本文约4000字,建议阅读14分钟。

本文将介绍XGBoost的定义,并利用这一模型对人类指数官方数据集进行回归预测。

640?wx_fmt=png

一座漂亮的森林,是如此的随机!来源:Pixabay

 

今天我们将会用XGBoost提升树对人类发展指数官方数据集进行回归预测。XGBoost是一种可以使用提升树进行多核并行训练的框架。今天我们将用XGBoost提升树对人类发展指数官方数据集进行回归预测。谁说监督学习全都是针对分类问题的?


XGBoost:是什么?


XGBoost是一种Python框架,它可以让我们使用提升树进行多核并行训练。在R语言中同样可以使用XGBoost,但在这里我们不多做介绍。


任务:回归


提升树是一种针对回归的机器学习模型。这意味着给模型输入集和数值标签,模型可以估计出一个函数使所输出的标签与输入相匹配。与分类问题不同,我们这里所关心的标签是连续值,而不是一组离散的类别值。


举个例子,我们已知一个人的体重和年龄,想预测他的身高,而不是将ta划分为男性、女性或其他类别。


对于每棵决策树,我们都是从根节点开始,然后根据判断结果分配到左边或右边子节点。最终,我们可以到达叶节点并返回这个叶节点中的值。


XGBoost模型:什么是梯度提升树?


提升树和随机森林很相似:他们都是决策树的融合。不管怎样,每个叶节点会在我们的预测空间上返回一个数值(或是向量)。


针对每一个非叶节点的子节点,提升树都需要决定:在一个确定的特征值和一个临界值之间进行数值比较。


目前只是定义了一棵回归树。提升树和随机森林到底有什么区别呢?


提升树和随机森林:不同之处


训练一棵提升树与随机森林不同,每次增加一颗新树时我们都需要改变标签。


对于每颗新树,我们需要用原始标签值减去前面所有树的预测值之和与学习率的乘积,来更新标签。


这样一来,每棵树都可以通过更正前面所有树的错误来进行有效的学习。


因此,在预测阶段,我们只需要直接返回所有树的预测值之和,再乘以学习率就可以了。


这也意味着,与随机森林和打包决策树不同,如果我们随意增加树的数量,那么这个模型就会过拟合。我们现在将要学习如何来解释这个问题。


想要更多地了解提升树,我强烈建议你去阅读XGBoost的官方文档。我从中学到了很多东西,文档中有一些精美的图片可以解释其中的基础知识。

<

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值