监督学习算法——K近邻——《python机器学习基础教程》

监督学习算法

常用的监督机器学习算法有:
1.K近邻(kNN,k-NearestNeighbor)
2.线性模型
3.朴素贝叶斯(Naive Bayesian)
4.决策树(Decision Tree)
5.决策树集成
6.核支持向量机(SVM,Support Vector Machine)
7.神经网络


K近邻(KNN,k-NearestNeighbor)

K-NN算法可以说是最简单的机器学习算法。

构建模型只需要保存训练数据集即可。

想要对新的数据点进行预测,算法会在训练数据集中找到最近的数据点,也就是它的最“最近邻”作为预测值输出。

1.k近邻分类

K-NN算法最简单的版本只考虑一个最近邻,也就是与我们想要预测的数据点最近的训练数据点。

预测结果就是与之最近的这个数据点的已知输出。

import mglearn
import matplotlib.pyplot as plt
mglearn.plots.plot_knn_classification(n_neighbors=1)
plt.show()

这里我们添加了3个新数据点(用五角星表示)。

对于每个新数据点,我们标记了训练集中与它最近的点。

单一最近邻算法的预测的结果就是那个点的标签(对应五角星的颜色)。

除了考虑最近邻的一个数据点,我们还可以考虑任意个(k个)邻居。这也是k近邻算法名字的来历。

在考虑多于一个邻居的情况是,我们用“投票法”(voting)来指定标签。

也就是说,对于每个测试点,我们数一数多少邻居属于类别0,多少邻居属于类别1,

然后将出现次数最多的类别(也是k个近邻中占多数的类别)作为预测结果。

下面的例子用到了3个近邻。

import mglearn
import matplotlib.pyplot as plt
mglearn.plots.plot_knn_classification(n_neighbors=3)
plt.show()

从五角星颜色可以看出预测结果。

左上角的数据点预测结果与只用一个近邻时的预测结果不同。

虽然上图对应的是一个二分类问题,但方法同样适用于多分类的数据集。

对于多分类问题,我们数一数每个类别分别有多少个邻居,然后将出现次数最多的类别作为预测结果。

接下来通过scikit-learn来应用k近邻算法。

import mglearn
import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split

X, y = mglearn.datasets.make_forge()
# 将数据分为训练集和测试集,以便评估泛化性能
X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=0)
from sklearn.neighbors import KNeighborsClassifier
# 导入类并将其实例化,设定邻居个数为3
clf = KNeighborsClassifier(n_neighbors=3)
# 利用训练集对这个
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
K近邻算法是一种简单易用的机器学习算法,它可以用于分类和回归问题。在分类问题中,K近邻算法通过计算待分类样本与训练集中每个样本的距离,找到距离待分类样本最近的K个样本,然后根据这K个样本的类别进行投票,将待分类样本归为票数最多的类别。在回归问题中,K近邻算法通过计算待预测样本与训练集中每个样本的距离,找到距离待预测样本最近的K个样本,然后根据这K个样本的值进行加权平均,得到待预测样本的预测值。 下面是一个使用K近邻算法进行乳腺癌检测分类的示例代码: ```python import pandas as pd from sklearn.model_selection import train_test_split from sklearn.neighbors import KNeighborsClassifier from sklearn.metrics import accuracy_score # 读取数据集 data = pd.read_csv("breast_cancer.csv") # 将类别变量转换为数值变量 data['diagnosis'] = data['diagnosis'].map({'M': 1, 'B': 0}) # 将特征变量和类别变量分开 X = data.drop(['diagnosis'], axis=1) y = data['diagnosis'] # 将数据集分为训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) # 创建K近邻分类器 knn = KNeighborsClassifier(n_neighbors=5) # 训练K近邻分类器 knn.fit(X_train, y_train) # 在测试集上进行预测 y_pred = knn.predict(X_test) # 计算预测准确率 accuracy = accuracy_score(y_test, y_pred) print("预测准确率:", accuracy) ``` 上述代码使用了sklearn库中的KNeighborsClassifier类来创建K近邻分类器,并使用accuracy_score函数计算预测准确率。需要注意的是,K近邻算法对数据的缩放敏感,因此在使用K近邻算法之前,通常需要对数据进行缩放处理。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值