超参数优化方法
1.什么是超参数(hyper-parameters)?
2.网格搜索穷举式超参数优化方法
3.随机采样式超参数优化方法
4.超参数空间的搜索技巧
5.暴力参数搜索方法的替代办法
什么是超参数(hyper-parameters)?
学习器模型中一般有两类参数:一类参数可以从数据中学习估计得到,还有一类参数无法从数据中估计,只能靠人的经验进行设计指定。后一类参数就叫超参数。
比如,支持向量机里的C,Kernel,gama,朴素贝叶斯里的alpha
在学习器模型的设计中,我们要搜索超参数空间为学习器模型找到最合理的超参数。
可已通过以下方法获得学习器模型的参数列表和当前取值:estimator.get_params()。
参数空间的搜索有以下几部分构成:
1、一个estimator(回归器or分类器比如sklearn.svm.sVC()) ;
2、一个参数空间;
3、一个搜索或采样方法来获得候选参数组合;
4、一个交叉验证机制;
5、一个评分函数。
有些学习器模型(estimator)有自己独特的参数优化方法。
SKLearn提供了两种通用的参数优化方法:网格搜索与随机采样。
网格搜索交叉验证(GridSearchCV):以穷举的方式遍历所有可能的参数组合
随机采样交叉验证(RandomizedSearchCV):依据某种分布对参数空间采样,随机的得到一些候选参数组合方案。
网格搜索穷举式超参数优化方法
GridSearchCV提供了在参数网格上穷举候选参数组