KNN 原理及参数总结

前言:

针对一个完整的机器学习框架目前还没有总结出来,所以目前只能总结每一个单独的算法。由于现在研究的重点是算法,所以对于数据的处理,数据的分析和可视化呈现,在现阶段并不进行展示(这样容易陷入纠结和浪费过多时间)。但是,当理解算法的基本原理和实现方法之后,再回过头来从头开始,实现一个完整的机器学习流程。**

1. KNN 原理

KNN是一种即可用于分类又可用于回归的机器学习算法。对于给定测试样本,基于距离度量找出训练集中与其最靠近的K个训练样本,然后基于这K个“邻居”的信息来进行预测。
在分类任务中可使用投票法,选择这K个样本中出现最多的类别标记作为预测结果;在回归任务中可使用平均法,将这K个样本的实值输出标记的平均值作为预测结果。当然还可以基于距离远近程度进行加权平均等方法。

2. KNN 优缺点

KNN 优点

  1. 理论成熟,思想简单,既可以用来做分类也可以用来做回归
  2. 可用于非线性分类
  3. 训练时间复杂度比支持向量机之类的算法低,仅为O(n)
  4. 和朴素贝叶斯之类的算法比,对数据没有假设,准确度高,对异常点不敏感
  5. 由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合
  6. 该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误分

KNN 缺点

  1. 计算量大,尤其是特征数非常多的时候
  2. 样本不平衡的时候,对稀有类别的预测准确率低
  3. KD树,球树之类的模型建立需要大量的内存
  4. 使用懒散学习方法,基本上不学习,导致预测时速度比起逻辑回归之类的算法慢
  5. 相比决策树模型,KNN模型可解释性不强

3. KNN 算法三要素

距离度量

闵可夫斯基距离(minkowski):

D ( x , y ) = ( ∣ x 1 − y 1 ∣ ) p + ( ∣ x 2 − y 2 ∣ ) p + . . . + ( ∣ x n − y n ∣ ) p p = ∑ i = 1 n ( ∣ x i − y i ∣ ) p p D(x,y) =\sqrt[p]{(|x_1-y_1|)^p + (|x_2-y_2|)^p + ... + (|x_n-y_n|)^p} =\sqrt[p]{\sum\limits_{i=1}^{n}(|x_i-y_i|)^p} D(x,y)=p(x1y1)p+(x2y2)p+...+(xnyn)p =pi=1n(xiy

  • 15
    点赞
  • 125
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
KNN是一种常见的分类和回归算法,它的基本思想是根据相邻的数据点来进行分类或回归。KNN的重要参数包括: - n_neighbors:KNN算法中K值,即选择最近的K个邻居进行分类或回归。 - weights:KNN算法中的权重类型,可以是uniform(所有邻居权重相等)或distance(邻居权重与距离成反比)。 - algorithm:KNN算法中的计算方式,可以是ball_tree、kd_tree、brute或auto,其中auto表示根据数据的特征数量和样本数量自动选择最佳算法。 - metric:KNN算法中的距离度量方式,可以是欧几里得距离、曼哈顿距离、闵可夫斯基距离等。 下面是一个使用KNN进行分类的示例: ```python # 导入数据集 from sklearn.datasets import load_iris iris = load_iris() # 划分数据集 from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.2) # 构建模型 from sklearn.neighbors import KNeighborsClassifier knn = KNeighborsClassifier(n_neighbors=5, weights='uniform') # 拟合模型 knn.fit(X_train, y_train) # 预测结果 y_pred = knn.predict(X_test) # 计算准确率 from sklearn.metrics import accuracy_score accuracy = accuracy_score(y_test, y_pred) print("准确率为:", accuracy) ``` 在这个例子中,我们使用iris数据集进行分类,将数据集划分为训练集和测试集,然后使用KNeighborsClassifier构建KNN模型。在构建KNN模型时,我们指定了K值为5,权重类型为uniform。在拟合模型后,使用predict方法进行预测,最后计算准确率。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值