确定最优的 k 值

本文介绍了如何在使用K-近邻算法前确定最佳的k值,通过在iris数据集上测试不同k值下的准确率,并利用交叉验证方法验证,结果显示k值为6、7、10、11、12时预测效果最佳。
摘要由CSDN通过智能技术生成

在使用 K-近邻算法之前,最好要先确定最优的 k 值(近邻点的数目)是多少,这需要分别测试不同 k 值下 KNN 算法的准确率,然后再使用交叉验证方法进行验证。

# 导入必要的库
import matplotlib.pyplot as plt
from sklearn.neighbors import KNeighborsClassifier 
from sklearn.model_selection import train_test_split  #数据分割模块
from sklearn.model_selection import cross_val_score  #交叉验证模块
from sklearn.datasets import load_iris
# 加载模型
iris=load_iris()
X=iris['data']
y=iris['target']
X_train,X_test,Y_train,Y_test=train_test_split(X,y,test_size=0.16)
# 测试准确率
k_range = range(1, 15)
k_error = []  #保存预测错误率
for k in k_range:  #循环,k 取值为 1~14,查看 KNN 分类的预测准确率
    knn = KNeighborsClassifier(n_neighbors=k)
    scores = cross_val_score(knn, X, y, cv=5, scoring='accuracy')
    #cv 参数决定数据集划分比例,这里是按照 5:1 划分训练集和测试集
    k_error.append(1 - scores.mean())  #把每次的错误率添加到数组中
# 结果可视化
plt.plot(k_range, k_error)
plt.xlabel('Value of K for KNN')
plt.ylabel('Error')
plt.show()

在这里插入图片描述
结果可知,k 值取 6、7、10、11、12 时最合适

  • 7
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值