【人工智能与深度学习】KNN算法学习

文章介绍了KNN算法的基本概念,通过螺丝钉分类的例子展示了KNN的工作原理。接着讨论了K值的选择对算法性能的影响,并详细解释了KNeighborsClassifier类的参数,如权重、算法类型和距离度量方法。此外,通过代码示例展示了如何使用交叉验证调整K值以优化模型的准确性。
摘要由CSDN通过智能技术生成

问题的提出

假设我们已知一些数据具有的类别,知道一些数据属于A类,一些数据属于B类,现在我们有一些不知道什么类型的数据集C,再假设我们对于这类数据的分类要求只要A、B类。我们想要把C中的数据分到A或者B类中,我们应该怎么办?

惯性思维解决

一堆20mm的螺丝钉和22mm螺丝钉混合在一起,我们有一堆分好的20mm螺丝钉子,有一堆分好的22mm螺丝钉,在正常情况下,我们拿起一个未知的螺丝钉,可能这个螺丝钉因为工艺问题,比22mm短了一点,或者比20mm长了一点。我们就会拿起几个分好的20或者22,比较一下,这个未知的螺丝钉,距离20近呢?还是22近呢?,可能只拿一个22的比较还不够,我们再拿K个判断,这就是KNN在现实生活的应用

K值选取与训练

https://zhuanlan.zhihu.com/p/143092725

具体使用 KNeighborsClassifier

参数概述

def KNeighborsClassifier(n_neighbors = 5,
                       weights='uniform',
                       algorithm = '',
                       leaf_size = '30',
                       p = 2,
                       metric = 'minkowski',
                       metric_params = None,
                       n_jobs = None
                       )

其中:
n_neighbors:这个值就是指 KNN 中的 “K”了。前面说到过,通过调整 K 值,算法会有不同的效果。
weights(权重):最普遍的 KNN 算法无论距离如何,权重都一样,但有时候我们想搞点特殊化,比如距离更近的点让它更加重要。这时候就需要 weight 这个参数了,这个参数有三个可选参数的值,决定了如何分配权重。参数选项如下:

  • ‘uniform’:不管远近权重都一样,就是最普通的 KNN 算法的形式。

  • ‘distance’:权重和距离成反比,距离预测目标越近具有越高的权重。

  • 自定义函数:自定义一个函数,根据输入的坐标值返回对应的权重,达到自

定义权重的目的。

algorithm:在 Sklearn 中,要构建 KNN 模型有三种构建方式:

  1. 暴力法,就是直接计算距离存储比较的那种方式。

  2. 使用 Kd 树构建 KNN 模型。

  3. 使用球树构建。

其中暴力法适合数据较小的方式,否则效率会比较低。如果数据量比较大一般会选择用 Kd 树构建 KNN 模型,而当 Kd 树也比较慢的时候,则可以试试球树来构建 KNN。参数选项如下:

  • ‘brute’ :蛮力实现;

  • ‘kd_tree’:KD 树实现 KNN;

  • ‘ball_tree’:球树实现 KNN ;

  • ‘auto’: 默认参数,自动选择合适的方法构建模型。

不过当数据较小或比较稀疏时,无论选择哪个最后都会使用 ‘brute’。

leaf_size:如果是选择蛮力实现,那么这个值是可以忽略的。当使用 Kd 树或球树,它就是停止建子树的叶子节点数量的阈值。默认30,但如果数据量增多这个参数需要增大,否则速度过慢不说,还容易过拟合。

p:和 metric 结合使用,当 metric 参数是 “minkowski” 的时候,p=1 为曼哈顿距离, p=2 为欧式距离。默认为p=2。

metric:指定距离度量方法,一般都是使用欧式距离。

  • ‘euclidean’ :欧式距离;

  • ‘manhattan’:曼哈顿距离;

  • ‘chebyshev’:切比雪夫距离;

  • ‘minkowski’: 闵可夫斯基距离,默认参数。

n_jobs:指定多少个CPU进行运算,默认是-1,也就是全部都算。

引用自此

代码实现
from sklearn.datasets import load_iris
from sklearn.model_selection  import cross_val_score
import matplotlib.pyplot as plt
from sklearn.neighbors import KNeighborsClassifier

iris = load_iris()
x = iris.data
y = iris.target
k_range = range(1,31)
k_error = []
for k in k_range :
    knn = KNeighborsClassifier(n_neighbors=k)
    scores = cross_val_score(knn,x,y,cv=6,scoring='accuracy')
    k_error.append(1-scores.mean())

plt.plot(k_range,k_error)
plt.xlabel('K value')
plt.ylabel('ERROR')
plt.show()

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值