lgb使用方法与调参

本文参考了lgb中文文档,和lgb调参笔记

import lightgbm as lgb

lgb参数

*type 1 不需要调试的参数 *
boosting_type
1.gbdt 2.rf
objective
1.regression 回归 2.binary 二分类(01) 3.multiclass 多分类(需要设置num_class)
num_class 多分类的类别数
early_stopping_round 多少轮学习后无优化,则停止。
data 训练数据
valid验证数据

lgb_train = lgb.Dataset(split_train_x, split_train_y)
data = lgb_train #API参数

metric 度量,详见在线文档。
nthread 多进程
device cpu,gpu

type 2 需要调试的参数
learning_rate
num_leaves 一棵树的最大叶子数
max_depth 一棵树的最大深度
min_split_gain 切分的最小增益
min_data_in_leaf叶子上的最小数据量,可以用来解决过拟合
min_sum_hessian_in_leaf叶子上的最小hessian值,可以用来解决过拟合
feature_fraction 0~1,每次训练中仅抽取该比例的特征进行训练,可以用来加速和解决过拟合
bagging_fraction 0~1,每次训练中仅抽取该比例的数据进行训练,可以用来加速和解决过拟合
lambda_l1 L1正则
lambda_l2 L2正则
num_boost_round boosting的最大迭代次数

超参数调试方法
step1 确定n_estimators
step2 确定max_depth和max_leaves
step3 确定min_data_in_leaf 和 max_bin
step4 确定feature_fraction、bagging_fraction、bagging_freq
step5 确定lambda_l1和lambda_l2
step6 确定min_split_gain
step7 降低learning_rate,增大迭代次数,验证模型

  • 1
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
LGB(LightGBM)是一种基于决策树的梯度提升框架,具有高效、准确的特点,被广泛应用于机器学习和数据科学领域。下面是LGB模型中常用的参数及其含义: 1. `num_leaves`:决策树的最大叶子节点数,这是LGB模型中最重要的参数之一,通常取值在40-60之间。 2. `learning_rate`:学习率,每次迭代中每个树的权重缩减量,通常取值在0.01-0.1之间。 3. `max_depth`:决策树的最大深度,控制模型的复杂度和过拟合情况,通常取值在5-15之间。 4. `min_child_samples`:叶子节点最少样本数,控制过拟合情况,通常取值在20-100之间。 5. `subsample`:每个树的样本采样比例,通常取值在0.5-0.8之间。 6. `colsample_bytree`:每个树的特征采样比例,通常取值在0.5-0.8之间。 7. `reg_alpha`:L1正则化系数,控制模型的复杂度和过拟合情况。 8. `reg_lambda`:L2正则化系数,控制模型的复杂度和过拟合情况。 关于调参方法,通常采用网格搜索或贝叶斯优化等方法,通过交叉验证来确定最佳参数组合。具体步骤如下: 1. 确定模型的初始参数范围。 2. 采用交叉验证方法,在训练集上训练模型,并在验证集上评估模型的性能。 3. 根据模型的性能,调整参数范围,重新训练模型,并重新进行交叉验证。 4. 重复步骤3,直到达到最佳性能,得到最佳的参数组合。 需要注意的是,调参的过程需要耗费大量时间和计算资源,因此需要谨慎选择参数范围和调参方法

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值