python knnsearch_sklearn之KNN详解+GridSearchCV使用方法

在了解了KNN的基本原理之后,我们需要学习如何在sklearn中调用KNN算法以及如何用GridSearchCV进行调参

首先导入必要的库以及我们所使用的数据集:iris

1 from sklearn.neighbors importKNeighborsClassifier2 from sklearn importdatasets3 from sklearn.model_selection importGridSearchCV4 from sklearn.model_selection importtrain_test_split5 iris =datasets.load_iris()6 data =iris.data7 label = iris.target

由于KNN对极端数据比较敏感,所以一般会对数据进行归一化,此处数据集比较友好就没有归一化了

将整个的数据集分成训练集和测试集,并创建一个KNN分类器对象

1 X_train,X_test,y_train,y_test = train_test_split(data,label,test_size=0.3,random_state=2)2 knn_clf = KNeighborsClassifier()

由于sklearn中的KNN方法有很多超参数,所以需要调参,这里只介绍常用的超参数:

weights:有两种参数:'uniform'和'distance',前者表示最原始的不带距离权重的KNN,后者指带有距离权重的KNN,比如说,A到B的距离为1,A到C的距离为2,A到D的距离为4,而且B属于M类,C和D属于N类,此时KNN算法的K如果等于3,则最终会将A判断为N类,但实际上A距离B最近,应该属于M类,故应该使用距离的倒数来表示距离,此时AB距离为1,AC距离为1/2,AD距离为1/4,AC+AD=3/4<1,故A点属于M类,此外,这种算法还能解决K个最近距离就有K类的问题。

n_neighbors:邻居个数,不再赘述

p:p=1表示曼哈顿距离,p=2表示欧式距离,p可以大于2,注意p参数只有在weights='distance'时才有

接下来介绍GridSearchCV的用法,先上代码:

1 param_grid =[2 {3 'weights':['uniform'],4 'n_neighbors':[i for i in range(1,11)]5 },6 {7 'weights':['distance'],8 'n_neighbors':[i for i in range(1,11)],9 'p':[i for i in range(1,6)]10 }11 ]12 grid_search = GridSearchCV(knn_clf,param_grid,n_jobs=-1,verbose=2)

GridSearchCV常用超参数:

estimator:创建的对象,如上的knn_clf

param_grid:是一个列表,列表里是算法对象的超参数的取值,用字典存储

n_jobs:使用电脑的CPU个数,-1代表全部使用

verbose:每次CV时输出的格式

接下来就用grid_search对象训练数据

1 %%time2 grid_search.fit(X_train,y_train)

训练结果如下

grid_search.best_estimator_

这是取出参数最好的一组对应的分类器

grid_search.best_score_

这是取出最好的超参数组合对应的准确率

grid_search.best_params_

这是取出最好的一组超参数

knn_clf =grid_search.best_estimator_

y_pre=knn_clf.predict(X_test)

knn_clf.score(X_test,y_pre)

用最好的一组超参数的分类器对象去预测测试集,并计算准确率。

如有错误欢迎大家指出,谢谢

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Stacking是一种集成学习方法,可以将多个模型的预测结果结合起来,得到更好的预测效果。在使用Python和scikit-learn库实现Stacking方法时,需要进行以下步骤: 1. 导入必要的库和数据集。 ```python import numpy as np import pandas as pd from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split from sklearn.linear_model import LogisticRegression from sklearn.neighbors import KNeighborsClassifier from sklearn.tree import DecisionTreeClassifier from sklearn.ensemble import RandomForestClassifier from sklearn.svm import SVC from sklearn.metrics import accuracy_score from sklearn.model_selection import cross_val_score, KFold from sklearn.model_selection import GridSearchCV from mlxtend.classifier import StackingClassifier iris = load_iris() X, y = iris.data[:, 1:3], iris.target X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) ``` 2. 定义基本模型和元模型。 ```python clf1 = KNeighborsClassifier(n_neighbors=3) clf2 = DecisionTreeClassifier() clf3 = RandomForestClassifier(n_estimators=100) clf4 = SVC(kernel='linear', probability=True) lr = LogisticRegression() ``` 3. 定义Stacking模型,并进行交叉验证。 ```python sclf = StackingClassifier(classifiers=[clf1, clf2, clf3, clf4], meta_classifier=lr) kfold = KFold(n_splits=10, shuffle=True, random_state=42) for clf, label in zip([clf1, clf2, clf3, clf4, sclf], ['KNN', 'Decision Tree', 'Random Forest', 'SVM', 'StackingClassifier']): scores = cross_val_score(clf, X, y, cv=kfold, scoring='accuracy') print("Accuracy: %0.2f (+/- %0.2f) [%s]" % (scores.mean(), scores.std(), label)) ``` 4. 对Stacking模型进行调参。 ```python params = {'kneighborsclassifier__n_neighbors': [1, 3, 5], 'decisiontreeclassifier__max_depth': [1, 2], 'randomforestclassifier__max_depth': [1, 2], 'meta-logisticregression__C': [0.1, 1.0, 10.0]} grid = GridSearchCV(estimator=sclf, param_grid=params, cv=kfold, refit=True) grid.fit(X_train, y_train) print("Best parameters set found on development set:") print(grid.best_params_) print("Grid scores on development set:") means = grid.cv_results_['mean_test_score'] stds = grid.cv_results_['std_test_score'] for mean, std, params in zip(means, stds, grid.cv_results_['params']): print("%0.3f (+/-%0.03f) for %r" % (mean, std * 2, params)) ``` 5. 计算Stacking模型在测试集上的准确率。 ```python y_pred = grid.predict(X_test) print('Accuracy: %.2f' % accuracy_score(y_test, y_pred)) ``` 通过以上步骤,我们就可以使用Python和scikit-learn库实现Stacking方法来组合预测了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值