![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
模型调参
菜不卷
过去我没得选,现在我想做好人。
展开
-
lgb.cv函数使用方法
性感官方,在线文档只写常用的参数参数params 基学习器的参数。详细参数就是LGBRegressor或者train_set 训练集。nfold n折交叉验证。metrics 评价标准。num_boost_round 最大迭代次数。early_stopping_rounds 早停轮数。verbose_eval 每间隔n个迭代就显示一次进度stratified 默认True,是否采用分层抽样,建议采用。shuffle 默认True,是否洗牌,不建议采用。seed 相当于random_s原创 2020-09-22 11:42:13 · 7964 阅读 · 1 评论 -
lgb调参
以lgb.LGBMRegressor为例model_lgb = lgb.LGBMRegressor(objective='regression', max_depth = 3, learning_rate=0.1, n_estimators=3938, metric='rmse', bagging_fraction = 0.8,原创 2020-08-13 11:28:07 · 3126 阅读 · 0 评论 -
随机森林调参(基于sklearn)
form sklearn.ensemble import RandomForestClassifier as rfcform sklearn.ensemble import RandomForestRegressor as rfr创建rf可以参考RF创建不需要调试的参数n_jobsoob_score 选择True吧,一般都会用到。criterion一般来说都是在开始之前就确定的。class_weight 分类问题针对样本类别不平衡random_state 稳定复现step 1n_es原创 2020-08-07 19:42:57 · 304 阅读 · 0 评论 -
bagging调参(基于sklearn)
from sklearn.ensemble import BaggingClassifierfrom sklearn.ensemble import BaggingRegressor两个模型参数很相似,就放在一块写了。bagging调参很容易,因为基学习器是固定的(假设基学习器已经是调参OK的了),只需要调参集合的部分就可以了。Importance:以下内容是博主完全猜测,没有任何依据!因为我在CSDN没有找到bagging的调参文章,而我又需要bagging调参,所以自己根据我那可怜的light原创 2020-08-07 17:53:25 · 3657 阅读 · 0 评论 -
决策树调参
from sklearn.tree import DecisionTreeRegressorsklearn中的决策树建立,sklearn实现决策树决策树最大的问题时太容易过拟合,所以首要问题是解决过拟合。不需要调试的参数criterion:分类树一般使用’gini’,当然也可以使用’entropy’。回归树’mae’,‘mse’一般都是按照任务需求确定好的。random_state:固定这个值可以复现。splitter看特征数量,一般直接选择’best,特征多的时候’random’。clas原创 2020-08-07 13:11:26 · 1662 阅读 · 0 评论 -
线性回归(Lasso,Ridge,ElasticNet)调参
model_ridge = Ridge(normalize=True,)然后使用for循环或者cv调试 alpha 即可。原创 2020-08-07 10:58:55 · 2742 阅读 · 0 评论 -
xgboost调参方法
本文我们只谈调参,不讲理论,理论我也不会,爱咋咋地。本文源自于这篇博文[xgboost理论+调参],青出于蓝而不胜于蓝(https://blog.csdn.net/JJprincess/article/details/82193286?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522159572330419195162564475%2522%252C%2522scm%2522%253A%252220140713.130102334…%2522原创 2020-07-26 09:15:17 · 576 阅读 · 0 评论