K-近邻法(k-nearest neighbor,K-NN)

K-近邻法

  KNN是一个分类与回归模型,可进行多分类,属于判别模型和非概率模型。用一句话描述这个模型,就是在特征空间中,离待分类点最近的K个点中出现最多的类标签,即是该待分类点的类标签。k=1时称为最近邻算法。KNN实际把特征空间划分成了若干子空间,在子空间内同类别。


K-近邻模型

  由于KNN属于惰性(lazy)模型,没有显式的学习过程,使用统计学习方法三要素描述不方便,这里考虑另外三个要素,即距离度量,超参数k的确定以及分类策略

距离度量

  特征空间中,两个实例点的距离,是两个实例点相似程度的反映。常见的距离度量是 L p L_{p} Lp距离度量公式 ( p ≥ 1 ) (p \geq 1) (p1)
L p ( x i , x j ) = ( ∑ l = 1 n ∣ x i ( l ) − x j ( l ) ∣ p ) 1 p L_{p}(x_{i},x_{j})=(\sum\limits^{n}_{l=1}|x_{i}^{(l)}-x_{j}^{(l)}|^{p})^{\frac {1}{p}} Lp(xi,xj)=(l=1nxi(l)xj(l)p)p1
  当p=1时,为曼哈顿距离:
L 1 ( x i , x j ) = ( ∑ l = 1 n ∣ x i ( l ) − x j ( l ) ∣ ) L_{1}(x_{i},x_{j})=(\sum\limits^{n}_{l=1}|x_{i}^{(l)}-x_{j}^{(l)}|) L1(xi,xj)=(l=1nxi(l)xj(l))
  当p=2时,为欧式距离:
L 2 ( x i , x j ) = ( ∑ l = 1 n ∣ x i ( l ) − x j ( l ) ∣ 2 ) 1 2 L_{2}(x_{i},x_{j})=(\sum\limits^{n}_{l=1}|x_{i}^{(l)}-x_{j}^{(l)}|^{2})^{\frac {1}{2}} L2(xi,xj)=

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值