一、KNN算法原理
KNN(k-nearest neighbor)算法是一种基本的分类与回归算法比较简单、直观:从给定的训练数据集中找出距离新输入的实例最近的k个实例,然后在这k个实例中类别数量最多的那个类就是我们新输入实例的最终分类结果。
伪代码:
对于输入训练集:Train={(x1,y1),(x2,y2)…(xn,yn)} 其中x为实例向量 y为该组数据对应的分类标签
输出:给定新实例x的类别 y∈{y1,y2,y3…yn}
(1)根据给定的距离度量标准,在训练集Train中找到与实例x最近的k个点;
(2)根据分类决策规则决定x的类别y:
k个样本中,最多的类为实例x的类标签。
常用的距离度量
(1)p>=1,当p=2时,该距离称作为欧氏距离
(2)p=1时,该距离称作曼哈顿距离,一般常用的p取2
knn的优缺点:
算法的时间复杂度和空间复杂度在数据量很大的时候会非常的大,但是准确率会比较好,并且受异常值的影响也不会很大。
二、基于python的sklearn包的实现
流程图实现如下:(结合代码查看)
数据包是鸢尾花数据,是原来就收集好了的数据
sklearn模块的api链接 https://scikit-learn.org/stable/
这里用到了model_selection(交叉检验function)、preprocessing(标准化function)、以及neighbors包(knn实例化)
代码如下
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import