机器学习面试题——KNN(K Nearest Neighbors)K近邻分类算法

机器学习面试题——KNN(K Nearest Neighbors)K近邻分类算法

提示:
KNN可以说是最简单的分类算法之一,同时,它也是最常用的分类算法之一,
注意KNN算法是有监督学习中的分类算法,它看起来和另一个机器学习算法Kmeans有点像(Kmeans是无监督学习算法),但却是有本质区别的。
那么什么是KNN算法呢,接下来我们就来介绍介绍吧。


KNN介绍一下

人以类聚,物以群分——同流合污,近朱者赤近墨者黑!

KNN的全称是K Nearest Neighbors,意思是K个最近的邻居,
KNN的原理就是:
当预测一个新的值x的时候,根据它距离最近的K个点是什么类别来判断x属于哪个类别。
通过方差表示“距离

在这里插入图片描述
图中绿色的点就是我们要预测的那个点,假设K=3。
那么KNN算法就会找到与它距离最近的三个点(这里用圆圈把它圈起来了),
看看哪种类别多一些,比如这个例子中是蓝色三角形多一些,新来的绿色点就归类到蓝三角了。
但是呢,当K=5的时候,判定就变成不一样了。
这次变成红圆多一些,所以新来的绿点被归类成红圆。
从这个例子中,我们就能看得出K的取值是很重要的。
在这里插入图片描述

距离包括欧式距离和曼哈顿距离

KNN算法中使用更多的是欧式距离,二维空间两个点的欧式距离计算公式如下:
在这里插入图片描述
拓展到多维空间,则公式变成这样:
在这里插入图片描述

KNN的K值怎么选

答:交叉验证法
尝试:看哪个k更好,通过不断验证K不同的取值来确定。
通过交叉验证(将样本数据按照一定比例,拆分出训练用的数据和验证用的数据,比如6:4拆分出部分训练数据和验证数据),
从选取一个较小的K值开始,不断增加K的值,然后计算验证集合的方差,最终找到一个比较合适的K值。
通过交叉验证计算方差后你大致会得到下面这样的图:
在这里插入图片描述
选择一个较大的临界K点,当它继续增大或减小的时候,错误率都会上升,比如图中的K=10
又是手肘法?和k-means聚类类似

KNN优缺点

KNN是较为简单的机器学习方法了。最关键的就是理解“距离”的概念。
KNN的优缺点

优点:

(1)简单易用,相比其他算法,KNN算是比较简洁明了的算法。
(2)模型训练快:就没有参数,非参数训练,当然k也算是了。
(3)预测效果好。
(4)对异常值不敏感

缺点:

(1)对内存要求较高,因为该算法存储了所有训练数据
(2)预测阶段可能很慢
(3)对不相关的功能和数据规模敏感
(4)对数据纲量敏感,所以数据要先归一化

KNN数据需要归一化吗?

答:是的
KNN对数据纲量敏感,所以数据要先归一化。
因为KNN使用的方差来反映“距离”,纲量对方差计算影响较大。

KNN三要素说一下

(1)k值的选取
(2)距离度量的方式。 一般为欧式距离
(3)分类决策规则。
分类一般为多数表决,就是哪类多选哪类。
回归为选择平均法,即k个样本输出的平均值作为预测输出。

欧式距离与曼哈顿距离区别

(1)欧式距离:平方差求和再开方
(2)曼哈顿距离:坐标差的绝对值求和
一般用欧式距离而非曼哈顿距离的原因:欧式距离可适用于不同空间,表示不同空间点之间的距离;欧氏距离表示空间中点的距离。
曼哈顿距离则只计算水平或垂直距离,有维度的限制!

knn的k设置的过大会有什么问题

如果选择较大的K值,就相当于用较大领域中的训练实例进行预测
其优点是可以减少学习的估计误差
但缺点是学习的近似误差会增大

我们考虑一种极端的情况,当k和整个样本数量一样的,KNN的分类结果总是取决于样本类别数量最多的那一类。这时模型的误差最大化


啥时候用啥ML算法?

在这里插入图片描述

总结

提示:重要经验:

1)区分K-means:无监督聚类,KNN:(有监督分类)
2)KNN的本质,k值选取,距离计算,优缺点,要了解

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
K近邻算法是一种简单易用的机器学习算法,它可以用于分类和回归问题。在分类问题中,K近邻算法通过计算待分类样本与训练集中每个样本的距离,找到距离待分类样本最近的K个样本,然后根据这K个样本的类别进行投票,将待分类样本归为票数最多的类别。在回归问题中,K近邻算法通过计算待预测样本与训练集中每个样本的距离,找到距离待预测样本最近的K个样本,然后根据这K个样本的值进行加权平均,得到待预测样本的预测值。 下面是一个使用K近邻算法进行乳腺癌检测分类的示例代码: ```python import pandas as pd from sklearn.model_selection import train_test_split from sklearn.neighbors import KNeighborsClassifier from sklearn.metrics import accuracy_score # 读取数据集 data = pd.read_csv("breast_cancer.csv") # 将类别变量转换为数值变量 data['diagnosis'] = data['diagnosis'].map({'M': 1, 'B': 0}) # 将特征变量和类别变量分开 X = data.drop(['diagnosis'], axis=1) y = data['diagnosis'] # 将数据集分为训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) # 创建K近邻分类器 knn = KNeighborsClassifier(n_neighbors=5) # 训练K近邻分类器 knn.fit(X_train, y_train) # 在测试集上进行预测 y_pred = knn.predict(X_test) # 计算预测准确率 accuracy = accuracy_score(y_test, y_pred) print("预测准确率:", accuracy) ``` 上述代码使用了sklearn库中的KNeighborsClassifier类来创建K近邻分类器,并使用accuracy_score函数计算预测准确率。需要注意的是,K近邻算法对数据的缩放敏感,因此在使用K近邻算法之前,通常需要对数据进行缩放处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

冰露可乐

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值