Sklearn-GridSearchCV网格搜索

GridSearchCV,它存在的意义就是自动调参,只要把参数输进去,就能给出最优化的结果和参数。但是这个方法适合于小数据集,一旦数据的量级上去了,很难得出结果。这个时候就是需要动脑筋了。数据量比较大的时候可以使用一个快速调优的方法——坐标下降它其实是一种贪心算法:拿当前对模型影响最大的参数调优,直到最优化再拿下一个影响最大的参数调优,如此下去,直到所有的参数调整完毕。这个方法的缺点就是可能会调到局部最优而不是全局最优,但是省时间省力,巨大的优势面前,还是试一试吧,后续可以再拿bagging再优化。

 

回到sklearn里面的GridSearchCVGridSearchCV用于系统地遍历多种参数组合,通过交叉验证确定最佳效果参数

GridSearchCVsklearn官方网址:http://scikit-learn.org/stable/modules/generated/sklearn.model_selection.GridSearchCV.html#sklearn.model_selection.GridSearchCV

classsklearn.model_selection.GridSearchCV(estimator,param_grid, scoring=None, fit_params=None, n_jobs=1, iid=True, refit=True,cv=None, verbose=0, pre_dispatch='2*n_jobs', error_score='raise',return_train_score=True)

 

  1. 常用参数解读

estimator:所使用的分类器,如estimator=RandomForestClassifier(min_samples_split=100,min_samples_leaf=20,max_depth=8,max_features='sqrt',random_state=10), 并且传入除需要确定最佳的参数之外的其他参数。每一个分类器都需要一个scoring参数,或者score方法。

param_grid:值为字典或者列表,即需要最优化的参数的取值,param_grid =param_test1,param_test1 = {'n_estimators':range(10,71,10)}。

scoring :准确度评价标准,默认None,这时需要使用score函数;或者如scoring='roc_auc',根据所选模型不同,评价准则不同。字符串(函数名),或是可调用对象,需要其函数签名形如:scorer(estimator, X, y);如果是None,则使用estimator的误差估计函数

cv :交叉验证参数,默认None,使用三折交叉验证。指定fold数量,默认为3,也可以是yield训练/测试数据的生成器

refit :默认为True,程序将会以交叉验证训练集得到的最佳参数,重新对所有可用的训练集与开发集进行,作为最终用于性能评估的最佳模型参数。即在搜索参数结束后,用最佳参数结果再次fit一遍全部数据集

iid:默认True,True时,默认为各个样本fold概率分布一致,误差估计为所有样本之和,而非各个fold的平均

verbose:日志冗长度,int:冗长度,0:不输出训练过程,1:偶尔输出,>1:对每个子模型都输出。

n_jobs: 并行数,int:个数,-1:跟CPU核数一致, 1:默认值。

pre_dispatch:指定总共分发的并行任务数。当n_jobs大于1时,数据将在每个运行点进行复制,这可能导致OOM,而设置pre_dispatch参数,则可以预先划分总共的job数量,使数据最多被复制pre_dispatch次

  1. 进行预测的常用方法和属性

grid.fit():运行网格搜索

grid_scores_:给出不同参数情况下的评价结果

best_params_描述了已取得最佳结果的参数的组合

best_score_:成员提供优化过程期间观察到的最好的评分

  1. 网格搜索实例

param_test1 ={'n_estimators':range(10,71,10)}
gsearch1= GridSearchCV(estimator =RandomForestClassifier(min_samples_split=100,
                                 min_samples_leaf=20,max_depth=       8,max_features='sqrt',random_state=10), 
                       param_grid =param_test1,scoring='roc_auc',cv=5)
gsearch1.fit(X,y)
gsearch1.grid_scores_, gsearch1.best_params_, gsearch1.best_score_

输出结果如下:

([mean: 0.80681, std:0.02236, params: {'n_estimators': 10},

  mean: 0.81600, std: 0.03275, params:{'n_estimators': 20},

  mean: 0.81818, std: 0.03136, params:{'n_estimators': 30},

  mean: 0.81838, std: 0.03118, params:{'n_estimators': 40},

  mean: 0.82034, std: 0.03001, params:{'n_estimators': 50},

  mean: 0.82113, std: 0.02966, params:{'n_estimators': 60},

  mean: 0.81992, std: 0.02836, params:{'n_estimators': 70}],

{'n_estimators': 60},

0.8211334476626017)

 

如果有transform,使用Pipeline简化系统搭建流程,将transform与分类器串联起来(Pipelineof transforms with a final estimator)

pipeline= Pipeline([("features", combined_features), ("svm", svm)])
param_grid= dict(features__pca__n_components=[1, 2, 3],
                  features__univ_select__k=[1,2],
                  svm__C=[0.1, 1, 10])
 
grid_search= GridSearchCV(pipeline, param_grid=param_grid, verbose=10)
grid_search.fit(X,y)
print(grid_search.best_estimator_)


  • 14
    点赞
  • 71
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
支持向量机回归(SVR)是一种非常有效的机器学习算法,可以用于预测连续型变量。然而,SVR模型的性能高度依赖于超参数的选择。因此,我们需要对超参数进行调优以得到最佳的模型。网格搜索是一种常用的调优方法,通过指定一组超参数的取值范围,GridSearchCV会自动遍历所有可能的超参数组合,并返回使得模型性能最优的超参数组合。 下面是使用GridSearchCV进行SVR参数调优的步骤: 1. 导入必要的库和数据集: ```python from sklearn.model_selection import GridSearchCV from sklearn.svm import SVR from sklearn.datasets import load_boston boston = load_boston() X = boston.data y = boston.target ``` 2. 定义超参数的取值范围: ```python param_grid = {'C': [0.1, 1, 10, 100], 'gamma': [0.1, 1, 10, 100], 'kernel': ['rbf', 'linear']} ``` 我们定义了3个超参数C、gamma和kernel的取值范围。其中C表示正则化强度,gamma表示核函数系数,kernel表示核函数类型。 3. 实例化一个SVR模型对象: ```python svr = SVR() ``` 4. 使用GridSearchCV进行参数搜索: ```python grid_search = GridSearchCV(svr, param_grid, cv=5, scoring='neg_mean_squared_error') grid_search.fit(X, y) ``` 我们将SVR模型对象和超参数取值范围作为参数传递给GridSearchCVcv参数表示使用5折交叉验证,scoring参数指定了评估指标,这里使用的是均方误差(MSE)的相反数。 5. 输出最优的模型参数: ```python print(grid_search.best_params_) ``` 通过打印出来的最优参数,我们就可以使用这组参数来训练一个最优的SVR模型。 总之,使用GridSearchCV方法可以帮助我们在一定程度上避免手动调参的过程,从而得到更加优秀的模型。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值