k近邻算法(KNN)

方法: k 近邻法
适用问题:多类分类,回归
模型特点:特征空间,样本点
模型类型:判别模型

一、介绍

k近邻法是一种基本分类与回归方法。思想是给定一个训练数据集,其中样本类别给定,分类时,对新的样本,根据其 k 个最近邻的训练实例的类别,通过多数表决等方式进行预测。

引用百度来的一张图,直观理解下k近邻算法:

这里写图片描述

目标是判断中心绿色点的类别,当k=3时,所形成的圆内红色三角形数量最多,则目标为红色类,当 k=5 时,所形成的圆内蓝色正方形最多,则目标为蓝色类,这就是 k 近邻算法。

k近邻的三要素是: k 值得选择、距离度量及分类决策规则。

本文介绍k近邻算法,三要素及代码实现,kd树和搜索kd树的算法将在另一片博文中介绍。

二、k近邻算法

算法:

输入:训练数据集

T=(x1,y1),(x2,y2),,(xN,yN)

其中, xi 为实例的特征向量, yi 为实例的类别, i=1,2,,N.

输出:实例 x 所属的类y.

算法步骤:
  1. 根据给定的距离度量,在训练集 T 中找出与x最邻近的 k 个点,涵盖着k个点的 x 的邻域记作Nk(x);
  2. Nk(x) 中根据分类规则(如多数表决)决定 x 的类别y

    y=argmaxcixiNk(x)I(yi=cj),i=1,2,,N;j=1,2,,k.

    I 为指示函数,即当Yi=ci时, I=1 ,否则为0. 当 k=1 时,称为最近邻算法。

三、k近邻的三要素

下面我们介绍k近邻法的三个基本要素:距离度量、k值的选择和分类决策规则的确定。

3.1 距离度量

特征空间中两个实例点的距离是两个实例点相似程度的反映,一般使用的是欧氏距离,也可以使其他距离,如 LP 距离和Minkowski距离。
下面是每个距离的定义:

设特征空间 n 维实数向量空间Rn, xi , xj, xi=(xi(1),xi(2),,xi(n))T , xj=(xj(1),xj(2),,xj(n))T, xi,xj Lp 距离为:

Lp(xi,xj)=(i=1nxi(l)xj(l)p)1p

这里 p1 .当 p=2 时,称为欧氏距离,即

L2(xi,xj)=(i=1nxi(l)xj(l)2)12

p=1 时 ,称为曼哈顿距离,即

L1(xi,xj)=i=1nxi(l)xj(l)

p= 时,取各个坐标距离的最大值,即

L(xi,xj)=maxlxi(l)xj(l)

3.2 k 值的选择

k值的选择会对结果产生直接的影响。

如果选择较小的k值,就相当于用较小的邻域中的训练实例进行预测,近似误差会减小,只有输入实例较近的训练实例才会对预测结果起作用,但确定是估计误差会增大,因为预测结果会对邻近的实例点非常敏感,如果邻近的实例点恰巧是噪声,预测结果就会出错。k值的减小意味着模型变得复杂,容易产生过拟合(这句话可以理解为 k 增大,邻域边界相对更平滑,k减小,邻域边界更弯曲,更参差不平,更复杂,可以画图帮助理解)。

如果选择较大的k值,就相当于用较大邻域中的训练实例进行预测,其优点是可以减少学习的估计误差,缺点是学习的近似误差会增大,这时与输入实例较远的训练实例也会起预测作用,使预测发生错误, k 值的增大就意味着整体的模型变得简单。

k=N是,无论输入什么,都将简单预测为最多实例点的类,是不可取得。

在应用中, k 值一般去一个比较小的数值,采用交叉验证选取最优k值。

3.3 分类决策规则

k 近邻法中的分类决策规则一般采用多数表决,即由输入实例的k个邻近的训练实例中的多数类决定。

多数表决规则等价于经验风险最小化,解释如下:如果分类的损失函数为0-1损失函数,分类函数为

f:Rn{c1,c2,,cK}

那么误分类的概率是
P(Yf(X))=1P(Y=f(X))

对于给定实例 x ,其最近邻的k个训练实例点构成的集合 Nk(x) .如果涵盖 Nk(x) 的区域的类别是 cj ,那么误分类率是
1kxiNk(x)I(yicj)=11kxiNk(x)I(yi=cj)

要使误分类率最小即经验风险最小,就要使 xiNk(x)I(yi=cj) 最大,所以多数表决规则等价于经验风险最小化。

四、模型的优缺点

KNN算法不仅可以用于分类,还可以用于回归。通过找出一个样本的k个最近邻居,将这些邻居的属性的平均值赋给该样本,就可以得到该样本的属性。更有用的方法是将不同距离的邻居对该样本产生的影响给予不同的权值,如权值与距离成反比。

优点:

1.简单,易于理解,易于实现,无需估计参数,无需训练;
2. 适合对稀有事件进行分类;
3.特别适合于多分类问题(multi-modal,对象具有多个类别标签), kNN比SVM的表现要好。

缺点:

1.该算法在分类时有个主要的不足是,当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的 k 个邻居中大容量类的样本占多数。 该算法只计算“最近的”邻居样本,某一类的样本数量很大,那么或者这类样本并不接近目标样本,或者这类样本很靠近目标样本。无论怎样,数量并不能影响运行结果。

2.该方法的另一个不足之处是计算量较大,因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的k个最近邻点。

3.可理解性差,无法给出像决策树那样的规。

五、代码实现

sklearn有现有的包可以调用,具体如下:

>>> X = [[0], [1], [2], [3]]
>>> y = [0, 0, 1, 1]
>>> from sklearn.neighbors import KNeighborsClassifier
>>> neigh = KNeighborsClassifier(n_neighbors=3)
>>> neigh.fit(X, y) 
KNeighborsClassifier(...)
>>> print(neigh.predict([[1.1]]))
[0]
>>> print(neigh.predict_proba([[0.9]]))
[[ 0.66666667  0.33333333]]

kd树和kd树的最近邻搜索将单独作为一篇文章介绍。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值