算法学习——K近邻算法

一、K近邻算法

在这里插入图片描述
在这里插入图片描述

二、K近邻模型

k近邻法使用的模型实际上对应于对特征空间的划分。模型由三个基本要素——距离度量、k值的选择和分类决策规则决定。

2.1 模型

在这里插入图片描述

2.2 距离度量

在这里插入图片描述
在这里插入图片描述
例题:距离度量使用Lp距离进行计算。
在这里插入图片描述
下面给出上述计算的做法,便于理解
L1(X1,X3)= 6 = 3+3
L2(X1,X3)= 4.24 = (3的平方+3的平方)开根号
L3(X1,X3)= 3.78 = (3的3次方+3的3次方)开根号3
L4(X1,X3)= 3.57 = (3的4次方+3的4次方)开根号4

2.3 K值的选择

通常采用交叉验证法选取最优的K值
在这里插入图片描述

2.4 分类决策规则

在这里插入图片描述
在这里插入图片描述

三、kd树

在这里插入图片描述

3.1 构造kd树

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
例题:kd树构造
在这里插入图片描述
在这里插入图片描述
下面给出上述计算的做法,便于理解

  1. 构建根结点,此时切分维度为x轴(即数据的第一维度),上述集合在x轴从小到大排序为(2,3),(4,7),(5,4),(7,2),(8,1),(9,6);中值为(7,2);(2,3),(4,7),(5,4)挂在(7,2)结点的左子树;(8,1),(9,6)挂在(7,2)结点的右子树。
  2. 构建(7,2)结点的左子树,点集合(2,3),(4,7),(5,4),此时切分维度为y轴(即数据的第二维度),中值为(5,4)。接着按x轴切分,(2,3)挂在(5,4结点)的左子树,(4,7)挂在(5,4)结点的右子树。
  3. 构建(7,2)结点的右子树,点集合(8,1),(9,6),此时切分维度为y轴,中值为(9,6)。接着按x轴切分,(8,1)挂在(9,6)结点的左子树。至此k-d tree构建完成。

3.2 搜索kd树

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
例题:搜索kd树
在这里插入图片描述
在这里插入图片描述
下面给出上述计算的做法,便于理解
1.找到包含S的叶结点D,因为最近邻点肯定在以S为圆心的圆内。
2.上退回D的父结点B和B的父结点F搜索最近邻。由图可知,结点B中只有结点D与S最近,而F与圆不相交,所以不存在最近邻点。
3.上退回根结点A,由图可知,A与圆不相交,所以不存在最近邻点。
4.向下搜索根节点A的另一个结点G。由图可知,而G与圆不相交,所以不存在最近邻点。
5.向下搜索结点C,发现C和圆相交,且相交点在圆内为实例点E。由图可知,E比D距离S更近,最后,得到E是点S的最近邻点。

四 、K近邻的概要在这里插入图片描述

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
K近邻算法是一种简单易用的机器学习算法,它可以用于分类和回归问题。在分类问题中,K近邻算法通过计算待分类样本与训练集中每个样本的距离,找到距离待分类样本最近的K个样本,然后根据这K个样本的类别进行投票,将待分类样本归为票数最多的类别。在回归问题中,K近邻算法通过计算待预测样本与训练集中每个样本的距离,找到距离待预测样本最近的K个样本,然后根据这K个样本的值进行加权平均,得到待预测样本的预测值。 下面是一个使用K近邻算法进行乳腺癌检测分类的示例代码: ```python import pandas as pd from sklearn.model_selection import train_test_split from sklearn.neighbors import KNeighborsClassifier from sklearn.metrics import accuracy_score # 读取数据集 data = pd.read_csv("breast_cancer.csv") # 将类别变量转换为数值变量 data['diagnosis'] = data['diagnosis'].map({'M': 1, 'B': 0}) # 将特征变量和类别变量分开 X = data.drop(['diagnosis'], axis=1) y = data['diagnosis'] # 将数据集分为训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) # 创建K近邻分类器 knn = KNeighborsClassifier(n_neighbors=5) # 训练K近邻分类器 knn.fit(X_train, y_train) # 在测试集上进行预测 y_pred = knn.predict(X_test) # 计算预测准确率 accuracy = accuracy_score(y_test, y_pred) print("预测准确率:", accuracy) ``` 上述代码使用了sklearn库中的KNeighborsClassifier类来创建K近邻分类器,并使用accuracy_score函数计算预测准确率。需要注意的是,K近邻算法对数据的缩放敏感,因此在使用K近邻算法之前,通常需要对数据进行缩放处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值