python 实现knn sklearn K近邻分类算法

knn sklearn K近邻分类算法介绍

K近邻(K-Nearest Neighbors,简称KNN)分类算法是sklearn(scikit-learn)库中一种常用的机器学习算法,属于有监督学习范畴。它基于这样一个原理:对于待分类的样本,算法会找到训练数据集中与其最相似的K个样本(即K个最近邻),然后根据这K个样本的类别进行投票,将待分类样本归类到票数最多的类别中。

KNN算法的主要步骤包括:

构建已分类的数据集:作为训练集,其中包含了已知分类标签的样本数据。
计算距离:当输入没有标签的新数据时,算法会计算这个新数据与训练集中每个样本之间的距离。常用的距离度量方法包括欧氏距离和曼哈顿距离。
排序和选择:根据计算出的距离,选择与新数据最相似的K个样本(即K个最近邻)。
分类决策:根据这K个最近邻的类别标签,采用投票法(在分类问题中)或平均法(在回归问题中)来确定新数据的类别或预测值。

KNN算法在sklearn中的实现

在sklearn中,可以使用sklearn.neighbors.KNeighborsClassifier类来实现KNN分类算法。以下是一个简单的使用示例:

from sklearn.neighbors import KNeighborsClassifier
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split

# 加载iris数据集
iris = load_iris()
X = iris.data
y = iris.target

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

# 创建KNN分类器实例,设置邻居数为3
knn = KNeighborsClassifier(n_neighbors=3)

# 训练模型
knn.fit(X_train, y_train)

# 预测测试集
predictions = knn.predict(X_test)

# 评估模型(这里可以添加评估代码,如计算准确率等)

KNN算法的特点

简单直观:KNN算法的工作原理简单,容易理解和实现。
分类性能好:由于KNN算法基于实例进行学习,能够充分利用训练数据中的信息,因此在很多数据集上都能取得不错的分类效果。
对数据预处理要求低:KNN算法不需要对数据进行复杂的特征提取或降维操作,只需计算样本之间的距离即可进行分类。
通用性强:KNN算法可以应用于各种类型的数据和场景,包括文本、图像、声音等不同类型的数据,以及分类、回归等不同类型的问题。

然而,KNN算法也存在一些缺点,如计算量大(尤其是当数据集很大时),以及对K值的选择敏感等。因此,在实际应用中,需要根据具体场景和数据特点来选择合适的算法和参数。

knn sklearn K近邻分类算法python实现样例

以下是使用sklearn库实现K近邻分类算法的Python代码示例:

from sklearn.neighbors import KNeighborsClassifier
from sklearn.metrics import accuracy_score

# 准备训练集和测试集数据
X_train = [[1], [2], [3], [4], [5]]
y_train = [0, 0, 1, 1, 1]
X_test = [[2.5], [4.5], [7]]

# 创建K近邻分类器
knn = KNeighborsClassifier(n_neighbors=3)

# 使用训练集训练分类器
knn.fit(X_train, y_train)

# 使用分类器进行预测
y_pred = knn.predict(X_test)

# 打印预测结果
print("预测结果:", y_pred)

# 计算准确率
y_true = [0, 1, 1]
accuracy = accuracy_score(y_true, y_pred)
print("准确率:", accuracy)

在上述代码中,首先从sklearn.neighbors库中导入KNeighborsClassifier类和accuracy_score函数。然后,定义训练集和测试集数据。训练集数据X_train是一个二维列表,每个子列表代表一个样本的特征;训练集数据y_train是一个一维列表,代表每个样本的类别标签。测试集数据X_test是一个二维列表,每个子列表代表一个需要预测的样本的特征。

接着,创建一个K近邻分类器对象knn,并设置参数n_neighbors=3,表示要考虑的最近邻居的数量。

然后,使用训练集数据X_train和y_train来训练分类器knn。

接下来,使用分类器knn对测试集数据X_test进行预测,将预测结果保存在y_pred变量中。

最后,使用accuracy_score函数计算预测结果y_pred和实际标签y_true之间的准确率,并打印准确率。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

luthane

您的鼓励将是我创作最大的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值