#----------------------------------Sklearn实现Knn------------------------------
# KNeighborsClassifier(n_neighbors=5, weights=’uniform’,
# algorithm=’auto’, leaf_size=30, p=2, metric=’minkowski’,
# metric_params=None, n_jobs=None, **kwargs)[source]
#--------------------------------------实例一-----------------------------------------------
from sklearn import datasets
from sklearn.neighbors import KNeighborsClassifier
from sklearn.cross_validation import train_test_split
import numpy as np
np.random.seed(0)#设置随机种子,设置后每次产生的随机数都一样
#加载数据集
iris=datasets.load_iris() #样本是150*4二维数据,代表150个样本,每个样本有4个特征
X=iris.data
y=iris.target
#分割数据集
X_train,X_test,y_train,y_test=train_test_split(X,y,random_state=1)
#print('训练集:',X_train,'测试集:',X_test)
#print('训练集',len(X_train),'测试集ÿ
Sklearn实现knn
最新推荐文章于 2024-09-06 09:46:37 发布
该博客通过三个实例详细介绍了如何使用Sklearn库实现K近邻(KNN)分类算法。首先,加载并分割鸢尾花数据集,训练KNN分类器,计算预测准确率。其次,创建了一个简单的数据集并进行预测。最后,通过可视化展示了不同权重下的3类分类边界。
摘要由CSDN通过智能技术生成