KNN最近邻算法分析及实现(Python实现)

Author: Nirvana Of Phoenixl

Proverbs for you:There is no doubt that good things will always come, and when it comes late, it can be a surprise.
(送给你的)

1 KNN算法简介

  最近邻(K-Nearest Neighbor,KNN)算法,是著名的模式识别统计学方法,在机器学习分类算法中占有相当大的地位。它是一个理论上比较成熟的方法。既是最简单的机器学习算法之一,也是基于实例的学习方法中最基本的,又是最好的文本分类算法之一。

  K近邻法(K-Nearest Neighbor, KNN)是一种基本分类与回归方法,其基本做法是:给定测试实例,基于某种距离度量找出训练集中与其最靠近的K个实例点,然后基于这K个最近邻的信息来进行预测

  通常,在分类任务中可使用“投票法”,即选择这K个实例中出现最多的标记类别作为预测结果;在回归任务中可使用“平均法”,即将这K个实例的实值输出标记的平均值作为预测结果;还可基于距离远近进行加权平均或加权投票,距离越近的实例权重越大。

2 KNN基本原理

  KNN最邻近分类算法的实现原理:为了判断未知样本的类别,以所有已知类别的样本作为参照,计算未知样本与所有已知样本的距离,从中选取与未知样本距离最近的K个已知样本,根据少数服从多数的投票法则(majority-voting),将未知样本与K个最邻近样本中所属类别占比较多的归为一类。

K近邻算法的主要任务是通过判断距离来选取未知样本,它包含的又一下核心公式: 
在这里插入图片描述

其中xi表示样本集
通过未知样本和已知样本的距离来判断取舍,主要是根据闵可夫斯基距离(LP)距离,其距离可以表示为:
在这里插入图片描述
其中xi,xj表示两个样本,n表示样本数,l表示维度,p表示参数其值取不同则表示不同距离。

根据LP距离可以推到得到不同的衡量距离,具体如下:
当p=1时,LP距离为曼哈顿距离,则可表示为:
在这里插入图片描述
当p=2时,LP距离为欧式距离,则可以表示为:
在这里插入图片描述
当P= 时,LP距离为切比雪夫距离,它表示两个点之间距离最大的坐标系之间的距离,可以表示为:
在这里插入图片描述

3 简单实现KNN分析

  通过基本原理设计一个简单的数据分类,通过随机取点分为两份作为样本点,再随机几个点作为待测点,并且通过KNN判断该点可能属于的类。

在这里插入图片描述

                      随机点分类可视化图

代码附录(Python):

from matplotlib.pyplot import *
import numpy as np
k = 5                                         # 简单例子,取k值为5即可
n=100                                        # 随机点分为两种颜色点的个数
def creatdot(rangex, rangey, dotnum, classtyap):        # 产生随机点分为x,y
x = np.random.normal(rangex, rangey, dotnum)
 y = np.random.normal(rangex, rangey, dotnum)     # 调用正态分布
    scatter(x, y, color=classtyap)                 # 产生点集
    return x, y

def discal(X, Y, markx, marky, classtyap):             # KNN计算距离
    for i in range(len(X)):
        x = X[i]
        y = Y[i]
        dis = ((x - markx)**2 + (y - marky)**2)**0.5
        dismp.append([dis, classtyap])
    return dismp

def creatmark():                              # 产生随机点作为被测数据
    x, y = creatdot(0, 2, 1, "green")
    return x, y

markx, marky = creatmark()

dismp = []
X, Y = creatdot(0, 1, n, "blue")
dismp.append(discal(X, Y, markx, marky, "blue"))
X, Y = creatdot(2, 1, n, "red")
dismp.append(discal(X, Y, markx, marky, "red"))

呆,站住别跑,留个赞,给个关注嘛都看到这了

  • 5
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: Python是一种常用的编程语言,广泛应用于数据科学和机器学习领域。其中机器学习库sklearn提供了许多常用的算法和工具,方便用户进行数据分析和模型训练。 其中之一是k近(k-nearest neighbors,KNN)分类算法KNN是一种基于实例的学习方法,它通过在特征空间中寻找最近的k个居来预测新的样本标签。在Python中使用sklearn库实现KNN分类算法非常简单。 首先,需要导入相关的库和模块。常用的库包括numpy(处理数值计算)、sklearn(机器学习库)和sklearn.neighbors(KNN算法模块)。 接下来,需要准备样本数据集。这包括特征矩阵和对应的标签。可以使用numpy数组或pandas数据框来存储数据。 然后,需要对数据进行预处理。这包括划分数据集为训练集和测试集,并进行特征缩放和标准化等操作。可以使用sklearn.preprocessing模块中的函数来进行这些操作。 接下来,需要创建一个KNeighborsClassifier对象,并设置相关参数。其中,最重要的是k值,即选择最近的k个居来进行预测。 然后,使用fit()方法将训练集的特征矩阵和标签传递给KNeighborsClassifier对象,以进行模型训练。 最后,可以使用predict()方法将测试集的特征矩阵传递给KNeighborsClassifier对象,并得到对应的预测结果。 除了这些基本步骤之外,还可以通过交叉验证和网格搜索等方法来优化模型的参数和评估模型的性能。sklearn库提供了相应的函数和方法来实现这些操作。 总之,使用Python中的sklearn库可以很方便地实现KNN分类算法。只需要按照上述步骤导入相关库、准备数据、预处理数据、创建模型、训练模型和预测结果即可。这是一个简便且高效的方法,帮助用户实现KNN分类算法来解决分类问题。 ### 回答2: K最近(K-nearest neighbors,简称KNN)是一种基本的分类算法,在Python中可以使用scikit-learn库(sklearn)来实现。以下是使用sklearn实现KNN分类算法的步骤: 1. 导入需要的库和模块:首先需要导入sklearn库中的KNeighborsClassifier模块,以及其他辅助模块,如numpy和pandas。 2. 准备数据集:将数据集划分为特征集(X)和目标标签(y)。特征集包含用于分类的属性,而目标标签则包含每个样本的分类结果。 3. 对数据集进行预处理:根据需要进行数据预处理,如数据清洗、缺失值处理或特征标准化等。 4. 划分数据集:将数据集划分为训练集和测试集,一般会使用train_test_split函数将数据按照一定的比例划分。 5. 创建KNN模型:使用KNeighborsClassifier创建一个KNN分类模型,并可设置K值和距离度量方式等参数。 6. 模型训练:使用fit函数对训练集进行训练,让模型学习训练集的模式。 7. 模型预测:使用predict函数对测试集进行预测,得到分类结果。 8. 模型评估:对预测结果进行评估,可使用accuracy_score等函数计算准确率、召回率等指标。 9. 调参优化:通过调整K值或距离度量方式等参数,可以对模型进行优化,提高分类性能。 10. 结果分析和应用:根据模型预测的结果进行分析,可以根据需要进行后续的实际应用。 总之,使用sklearn实现KNN分类算法可以简化KNN模型的搭建和使用过程,使得开发者能够快速实现KNN算法并进行分类任务。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值