用cross_val_score对鸢尾花数据集进行交叉验证

from sklearn import datasets#自带的数据集
from sklearn.model_selection import train_test_split,cross_val_score
from sklearn.neighbors import KNeighborsClassifier
import matplotlib.pyplot as plt
iris=datasets.load_iris()#加载sklearn自带的数据集鸢尾花
X=iris.data#数据
y=iris.target#数据对应的标签
train_X,test_X,train_y,test_y=train_test_split(X,y,test_size=1/3,random_state=3)
k_range=range(1,31)
cv_scores=[]#用来放结果
for n in k_range:
    knn=KNeighborsClassifier(n)#knn模型,这里一个超参数可以做预测,当有多个超参数时应使用另一种方法:GridSearchCV
    scores=cross_val_score(knn,train_X,train_y,cv=10,scoring='accuracy')
    #cv:选择每次测试折数  accuracy:评价指标是准确度,可以省略使用默认值
    cv_scores.append(scores.mean())

plt.plot(k_range,cv_scores)
plt.xlabel('K')
plt.ylabel('Accuracy')
plt.show()

从图中可以看出k为3时的knn效果最好

best_knn=KNeighborsClassifier(n_neighbors=3)
best_knn.fit(train_X,train_y)
print(best_knn.score(test_X,test_y))
交叉验证(Cross-Validation)是一种评估机器学习模型性能的常用技术,尤其是在没有明确测试集的情况下。对于鸢尾花数据集(Iris dataset),它是一个经典的多类分类问题,通常用于初学者入门机器学习。下面是使用交叉验证设计思路的基本步骤: 1. 数据加载:首先,从sklearn库中导入iris数据集,它包含了150个样本,每个样本有4个特征(花瓣长度、花瓣宽度、萼片长度和萼片宽度)和一个类别标签。 2. 数据划分:通常将数据分为训练集和测试集,比如80%的数据用于训练,20%用于测试。然而,为了更准确地评估模型,我们会用到k折交叉验证,将数据划分为k个大小相等的子集。 3. k折分割:将数据分成k个子集,每次选取其中一个子集作为验证集,其余k-1个子集作为训练集。这样就会有k个不同的模型,每个模型都在一次训练和验证后得到一个性能指标。 4. 模型训练与验证:对每个训练集,训练一个模型,并用相应的验证集进行性能评估(如准确率、精确率、召回率等)。这样能得到k个模型在不同数据上的性能。 5. 性能指标汇总:取k次验证结果的平均值,作为模型在当前参数下的最终性能估计。这有助于减少由于数据划分偶然性带来的偏差。 6. 参数调优:根据交叉验证的结果,调整模型的超参数,以提高整体性能。这个过程可能需要多次迭代。 7. 最终评估:在完成所有参数调整后,再用独立的测试集对最终模型进行一次评估,确保其泛化能力。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值