数据结构大作业之随机森林与XGBoost训练与调参

本文介绍了如何使用随机森林和XGBoost进行模型训练与调参。内容涵盖模型的基础知识、调参步骤,以及两者之间的对比。在随机森林中,重点讨论了n_estimators参数的影响,并通过10次交叉验证进行验证。对于XGBoost,解释了其作为梯度提升算法的特点,并强调了模型优化与泛化误差的关系。最终,文章还涉及到模型保存与预测的实现。
摘要由CSDN通过智能技术生成

做什么:

模型训练;
调参训练;
训练,优化得到预测模型


首先基础内容:

  1. 课程链接
    基本原理认识
  2. 基础概念知识:
    (1)交叉验证
    (2)随机森林,XGBoost,调参+学习曲线/网格搜索+解读调参结果和过程

课程基础:

sklearn:开源的基于python语言的机器学习工具包,几乎涵盖了大部分主流机器学习算法
随机森林:集成算法中的装袋法:一次性建立多个若评估器
Xgboost:集成算法中提升法的代表算法:梯度提升树

  1. 树模型:分类树,回归树
  2. XGB:每个叶子结点上会有一个预测分数,也被称为叶子权重,即为求解的xgb最后的结果:参数模型。(每棵树之间相互递进的关系)
  3. xgb的超参数:k棵树;silent:打印训练的结果:建树流程
  4. 简单建模:探索性质
    (1)xdb,随机森林,线性回归对比
    (2)学习曲线,进行优化

对比之随机森林

重点

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值