【掰开揉碎】lightgbm params 各参数含义

LightGBM(Light Gradient Boosting Machine)是一种梯度提升框架,用于高效地训练梯度提升树模型。它具有许多参数,可以影响模型的性能和训练过程。以下是一些常用的LightGBM参数及其含义:

  1. boosting_type: 提升类型,可以是"gbdt"(传统的梯度提升树)、"dart"(Dropouts meet Multiple Additive Regression Trees)、"goss"(Gradient-based One-Side Sampling)或"rf"(随机森林)。

  2. num_leaves: 每棵树的叶子节点数。较大的值可以提高模型的复杂度,但也容易过拟合。

  3. learning_rate: 学习率,控制每次迭代的步长。较小的学习率通常需要较多的迭代次数来达到收敛,但也有助于避免过拟合。

  4. n_estimators: 总共要训练的树的数量(迭代次数)。

  5. max_depth: 树的最大深度。可以用来限制树的复杂度,防止过拟合。

  6. min_child_samples: 每个叶子节点所需的最小样本数。用于控制树的生长过程,防止过拟合。

  7. subsample: 每次迭代时使用的训练样本的子采样比例。可以减少过拟合的风险。

  8. colsample_bytree: 每次迭代时用于构建树的特征的子采样比例。

  9. reg_alpha: L1正则化的系数。可以用来控制模型的复杂度,防止过拟合。

  10. reg_lambda: L2正则化的系数。类似于reg_alpha,用来控制模型的复杂度。

  11. min_split_gain: 分裂节点时的最小增益。用于控制树的生长过程,防止过拟合。

  12. objective: 指定要最小化的损失函数,例如"regression"(回归问题)、"binary"(二分类问题)、"multiclass"(多分类问题)等。

  13. categorical_feature: 指定哪些特征是分类特征,可以提供特征索引或列名。

  14. early_stopping_rounds: 提前停止的迭代次数,当验证集上的损失不再减少时,训练会提前终止。

  15. verbose: 控制训练过程中的输出信息级别。

  • 8
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值