模型选择与调优
1交叉验证(cross validation)
是指将拿到的训练数据,分为训练集和验证集。以将训练数据分成4份为例子,其中一份作为验证集,然后经过4次的测试,每次都更换不同的验证集,即得到4组模型的结果,取平均值作为最终结果,又称4折交叉验证。可以让训练得到的模型结果更加准确。
2超参数搜索——网格搜索(Grid Search)
通常情况下,有很多参数需要手动的指定(如KNN中的K值),这种叫做超参数,但是手动指定过程复杂,所以需要对模型预设几种超参数的组合,每组超参数都采用交叉验证来进行评估,最后选出最优参数来组合建立模型。
代码
#导入网格搜索和交叉验证的模块 from sklearn.model_selection import GridSearchCV
def KNN_iris_gscv(): ''' 用KNN算法对鸢尾花进行分类,添加网格搜索(确定超参的值,K值)和交叉验证(提高准确率) :return: ''' #1 获取数据 iris = load_iris() #2 划分数据集 x_train,x_test,y_train,y_test = train_test_split(iris.data,iris.target,random_state=6) #3 特征工程:标准化 transfer = StandardScaler() x_train = transfer.fit_transform(x_train) #对训练集中的平均值和标准差来对测试集做标准化 x_test = transfer.transform(x_test) #4 KNN算法预估器 estimator = KNeighborsClassifier() #加入网格搜索和交叉验证 #参数准备 param_dict = {"n_neighbors":[1,3,5,7,9,11]} #cv是交叉验证次数,param_grid是要确定的超参的范围 estimator = GridSearchCV(estimator,param_grid=param_dict,cv=10) estimator.fit(x_train,y_train) #5 模型评估 #方法1:直接比对真实值和预测值 y_predict = estimator.predict(x_test) print("y_predict:\n",y_predict) print("直接比对真实值和预测值:\n",y_test == y_predict) #方法2:计算准确率 score = estimator.score(x_test,y_test) print("准确率为:\n",score) #最佳参数:best_params_ print("最佳参数\n",estimator.best_params_) #最佳结果:best_score_ print("最佳结果\n",estimator.best_score_) #最佳估计器:best_estimator_ print("最佳估计器\n",estimator.best_estimator_) #交叉验证结果:cv_results_ print("交叉验证结果\n",estimator.cv_results_) return None
输出结果