主要代码如下
from lightgbm.sklearn import LGBMClassifier
xgb = XGBClassifier(boosting_type='gbdt', objective='binary', learning_rate=0.05, n_estimators=5000, num_leaves=31,subsample=0.8, colsample_bytree=0.8, metric='auc')
报错内容提示我们问题应该出在objective='binary'
这里,按住ctrl点击objective,发现源代码长这样
问题根源很明显了,就是objective的赋值出了问题,考虑到我本来也是带算用binary,直接把objective='binary'
删除问题就解决了。
最后再看一眼objective是干嘛的,参考博客XGBoost:参数解释。objective [ default=reg:linear ]
定义学习任务及相应的学习目标,可选的目标函数如下:
- “reg:linear” –线性回归。
- “reg:logistic” –逻辑回归。
- “binary:logistic” –二分类的逻辑回归问题,输出为概率。
- “binary:logitraw” –二分类的逻辑回归问题,输出的结果为wTx。
- “count:poisson” –计数问题的poisson回归,输出结果为poisson分布。
- “multi:softmax” –让XGBoost采用softmax目标函数处理多分类问题,同时需要设置参数num_class(类别个数)
- “multi:softprob” –和softmax一样,但是输出的是ndata * nclass的向量,可以将该向量reshape成ndata行nclass列的矩阵。没行数据表示样本所属于每个类别的概率。
- “rank:pairwise” –set XGBoost to do ranking task by minimizing the pairwise loss