LightGBM之metric的选择

指标参数metric

评价指标
{l2 for regression},
{binary_logloss for binary classification},
{multi_logloss for classification}

  • “None”(字符串),表示无度量,等效于na,null,custom
  • l1(absolute loss),等效于mean_absolute_error,mae,regression_l1
  • l2(square loss),等效于mean_squared_error,mse,regression_l2,regression
  • rmse(平方根损失),等效于root_mean_squared_error,l2_root
  • quantile,分位数回归
  • mape(MAPE损失),等效于mean_absolute_percentage_error
  • huber(huber损失)
  • fair(fair损失)
  • poisson,泊松回归的负对数似然
  • gamma,Gamma回归的负对数似然
  • gamma_deviance,Gamma回归残差
  • tweedie,Tweedie回归的负对数似然
  • ndcg,等效于lambdarank,rank_xendcg,xendcg,xe_ndcg,xe_ndcg_mart,xendcg_mart
  • map,等效于mean_average_precision
  • auc
  • average_precision,平均精度得分
  • binary_logloss,log loss,等效于binary
  • binary_error,对于单样本,0用于正确分类,1用于错误分类
  • auc_mu
  • multi_logloss,多分类log loss,等效于multiclass,softmax,multiclassova,multiclass_ova,ova,ovr
  • multi_error,多分类错误率
  • cross_entropy,交叉熵(具有可选的线性权重),等效于xentropy
  • cross_entropy_lambda,“intensity-weighted”交叉熵,等效于 xentlambda
  • kullback_leibler,Kullback-Leibler散度,等效于kldiv

支持多个指标,使用“,”分隔。
‘metric’: {‘binary_logloss’, ‘auc’}

  • 4
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
LightGBM是一种基于梯度提升决策树(Gradient Boosting Decision Tree)的机器学习模型。它是由微软开发的一种高效的梯度提升框架,具有以下特点: 1. 高效性:LightGBM使用了基于直方图的算法来加速训练过程,同时采用了稀疏特征优化和直方图差分算法,使得模型在处理大规模数据时具有较高的训练和预测速度。 2. 低内存占用:LightGBM使用了带有压缩的直方图算法来存储特征值,减少了内存的使用量。 3. 准确性:LightGBM采用了基于直方图的算法来进行特征分裂,能够更好地处理离散特征和连续特征,提高了模型的准确性。 4. 可扩展性:LightGBM支持并行训练和多线程处理,可以在多核CPU上进行并行计算,提高了模型的训练效率。 5. 支持大规模数据:LightGBM能够处理大规模的数据集,适用于大规模的机器学习问题。 下面是一个使用LightGBM模型进行分类任务的示例代码: ```python import lightgbm as lgb from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split # 加载数据集 iris = load_iris() X_train, X_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.2, random_state=42) # 创建LightGBM数据集 train_data = lgb.Dataset(X_train, label=y_train) # 设置参数 params = { 'objective': 'multiclass', 'num_class': 3, 'metric': 'multi_logloss', } # 训练模型 model = lgb.train(params, train_data, num_boost_round=100) # 预测 y_pred = model.predict(X_test) # 输出预测结果 print(y_pred) ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值