K-近邻算法代码实现

手写k-近邻算法

k-近邻算法的工作原理:存在一个样本数据集合,也成为训练样本集,样本集中的每一个数据都存在标签。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似的数据的分类标签。选择样本数据集中的前k个最相似的k个数据,将k个最相似数据中出现次数最多的分类作为新数据的类别。

k-近邻算法Python实现(手写)

## KNN.py
from numpy import *
import numpy as np
import operator

def createDataSet():
   group=np.array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])
   labels=['A','A','B','B']
   return group,labels

def classify0(inX,dataSet,labels,k):
   dataSetSize=dataSet.shape[0]
   diffMat=tile(inX,(dataSetSize,1))-dataSet
   sqDiffMat=diffMat**2
   sqDistance=sqDiffMat.sum(axis=1)
   distance=sqDistance**0.5
   sorted_d=distance.argsort()
   classCount={}
   for i in range(k):
       votel=labels[sorted_d[i]]
       classCount[votel]=classCount.get(votel,0)+1
   sortedClassCount=sorted(classCount.items(),key=operator.itemgetter(1),reverse=True)
   return sortedClassCount[0][0]
##test0.py
import KNN
group,labels=KNN.createDataSet()
print(KNN.classify0([0,0],group,labels,3))

sklearn实现k-近邻算法

## KNN.py
from numpy import *
import numpy as np
import operator

def createDataSet():
    group=np.array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])
    labels=['A','A','B','B']
    return group,labels
## sklearn_classify.py
import KNN
from sklearn.neighbors import KNeighborsClassifier
import numpy as np

x_train=np.array([[0,0],[1,1]])
groups,labels=KNN.createDataSet()
clf=KNeighborsClassifier(n_neighbors=3)
clf.fit(groups,labels)
print(clf.predict(x_train))
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值