这篇文章记录的是如何对模型进行交叉验证。
首先要简单了解一下,什么是交叉验证,对一个模型好与坏的检测指标有哪些?
1.什么是交叉验证?
交叉验证就是不单单把数据集分成测试集和训练集,而是把数据集分成n组,每一组中都有训练集和测试集,每一组都会得到一个score,这个score可以是准确性(accuracy),也可以是MSE(标准均方误差)等。
例子回到第一篇文章中讲到的花的分类,最简单的是利用train_test_split将数据集分成了测试集与训练集。
现在我们要对此例子进行进阶,讨论当knn中的参数n_neighbors为多少时此分类模型的准确率最高。当然k折交叉验证(将数据划分为多少个集合就是k折)只是验证方式中的一种,还有其他的后续学习时再提。
from sklearn import datasets
from sklearn.neighbors import KNeighborsClassifier
from sklearn.model_selection import cross_val_score
import matplotlib.pyplot as plt
#加载数据
iris = datasets.load_iris()
iris_x = iris.data
iris_y = iris.target
#将参数k范围规定在1-30
k_range = range(1,30)
k_scores = []
for k in k_range:
knn =KNeighborsClassifier(n_neighbors=k)
scores &#