matlab knn最邻近算法,基于核函数改进的knn近邻算法的简单实现 R matlab code

#a.r

rm(list = ls())

library(MASS)

#w.r

w

if(maxd!=0){

}else{

f

}

f

}

#dsr.r

dsr

l

norm

sum

for(i in 1:l){

sum=sum+(dis[i])^2

}

norm 

norm

}

#d.r

d

te 

te.ma

dis.ma 

dist.list

sorted.list

sorted.list

}

#cal_w.r

cal_w

dists

ind

r.c

c.ma

max.dist 

for(i in 1:length(ind)){

r.c[i]

}

u.c

length(c.ma)

for(i in 1:length(u.c)){

temp

c.ma[[i]]

}

largest.weight.list

ans

ans

}

#knn.dist.r

knn.dist

weight

ncl 

te

for(i in 1:te){

r.list

ncl[i]

}

ncl

}

可用于实现k折交叉验证:

#训练集分类

c=numeric(10000)

for (i in 1:10000)

if (trf(trdata[,i])>0) {

c[i]=1

} else {

c[i]=2

} # if f(x)>0 belong to class 1, if f(x)<0 belong to class 2

c#class indicator

trc=c;

trdata=t(trdata)

#2-fold cross-validation

i=1

for(k in c(3,7,11,15,19,23,27,31,35,39))

{kfold=floor(10000/2)

s=sample(1:10000,kfold)

ncl=knn.dist(trdata[-s,],trdata[s,],trc[-s],k)

q3berror

cat("k-nearest neighbour ",k," result:",ncl," error:",q3berror,"\n")

i=i+1

}

a4c26d1e5885305701be709a3d33442f.png

从最后的交叉验证结果来看,错误率还是让人满意的,说明该模型的效果较好,也省却了参数优化的过程。有问题欢迎讨论交流,QQ

570881451.

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值