KNN算法

机器学习算法完整版见fenghaootong-github

KNN算法

kNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。

三要素:k值选择、距离矢量、分类决策规则

k值选择

  • 应用中,k值一般取一个较小的数值

如果k=3,在已有的分类样本上,这时来了一个新样本,那么这个新样本所属的类就是在最临近的三个样本中占较大比重的那一类。

距离矢量

  • 特征空间中两个实例点的距离是两个实例点相似程度的反映
  • K近邻模型的特征空间的距离一般为欧式距离,也可以是LpLp距离:

Lp(xi,xj)=(nl=1|x(l)ix(l)i|p)1/pLp(xi→,xj→)=(∑l=1n|xi(l)−xi(l)|p)1/p

xi,xjχ=Rnxi→,xj→∈χ=Rn
xi=(x(1)i,x(2)i,...,x(n)i)Txi→=(xi(1),xi(2),...,xi(n))T
xj=(x(1)j,x(2)j,...,x(n)j)Txj→=(xj(1),xj(2),...,xj(n))T
p1p≥1

  • 当p=2时,为欧式距离:L2(xi,xj)=(nl=1|x(l)ix(l)i|2)1/2L2(xi→,xj→)=(∑l=1n|xi(l)−xi(l)|2)1/2
  • 当p=1时,为曼哈顿距离:L1(xi,xj)=nl=1|x(l)ix(l)i|L1(xi→,xj→)=∑l=1n|xi(l)−xi(l)|
  • 当p=无穷大时,为各维度距离中的最大值:L(xi,xj)=maxl|x(l)ix(l)i|L∞(xi→,xj→)=maxl|xi(l)−xi(l)|

分类决策规则

  • 误分类率

1kxiNk(x⃗ )I(yicj)=11kxiNk(x⃗ )I(yi=cj)1k∑xi→∈Nk(x→)I(yi≠cj)=1−1k∑xi→∈Nk(x→)I(yi=cj)

cjcj表示类别

  • 多数表决

y=cj=argmaxcjxi¯¯¯¯¯Nk(x¯¯¯)I(yicj),i=1,2,3,...,N;j=1,2,3,...,Ky=cj=argmaxcj∑xi¯∈Nk(x¯)I(yi≠cj),i=1,2,3,...,N;j=1,2,3,...,K

KNN算法经典实例

KNN算法经典实例

转载于:https://www.cnblogs.com/htfeng/p/9931762.html

展开阅读全文
评论将由博主筛选后显示,对所有人可见 | 还能输入1000个字符

没有更多推荐了,返回首页

©️2019 CSDN 皮肤主题: 编程工作室 设计师: CSDN官方博客
应支付0元
点击重新获取
扫码支付

支付成功即可阅读