KNN算法

机器学习算法完整版见fenghaootong-github

KNN算法

kNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。

三要素:k值选择、距离矢量、分类决策规则

k值选择

  • 应用中,k值一般取一个较小的数值

如果k=3,在已有的分类样本上,这时来了一个新样本,那么这个新样本所属的类就是在最临近的三个样本中占较大比重的那一类。

距离矢量

  • 特征空间中两个实例点的距离是两个实例点相似程度的反映
  • K近邻模型的特征空间的距离一般为欧式距离,也可以是LpLp距离:

Lp(xi,xj)=(nl=1|x(l)ix(l)i|p)1/pLp(xi→,xj→)=(∑l=1n|xi(l)−xi(l)|p)1/p

xi,xjχ=Rnxi→,xj→∈χ=Rn
xi=(x(1)i,x(2)i,...,x(n)i)Txi→=(xi(1),xi(2),...,xi(n))T
xj=(x(1)j,x(2)j,...,x(n)j)Txj→=(xj(1),xj(2),...,xj(n))T
p1p≥1

  • 当p=2时,为欧式距离:L2(xi,xj)=(nl=1|x(l)ix(l)i|2)1/2L2(xi→,xj→)=(∑l=1n|xi(l)−xi(l)|2)1/2
  • 当p=1时,为曼哈顿距离:L1(xi,xj)=nl=1|x(l)ix(l)i|L1(xi→,xj→)=∑l=1n|xi(l)−xi(l)|
  • 当p=无穷大时,为各维度距离中的最大值:L(xi,xj)=maxl|x(l)ix(l)i|L∞(xi→,xj→)=maxl|xi(l)−xi(l)|

分类决策规则

  • 误分类率

1kxiNk(x⃗ )I(yicj)=11kxiNk(x⃗ )I(yi=cj)1k∑xi→∈Nk(x→)I(yi≠cj)=1−1k∑xi→∈Nk(x→)I(yi=cj)

cjcj表示类别

  • 多数表决

y=cj=argmaxcjxi¯¯¯¯¯Nk(x¯¯¯)I(yicj),i=1,2,3,...,N;j=1,2,3,...,Ky=cj=argmaxcj∑xi¯∈Nk(x¯)I(yi≠cj),i=1,2,3,...,N;j=1,2,3,...,K

KNN算法经典实例

KNN算法经典实例

转载于:https://www.cnblogs.com/htfeng/p/9931762.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值