原生python实现KNN分类算法

KNN算法又称为K最近邻分类算法,是一种监督学习类方法。所谓的k最近邻,就是指最接近的k个邻居(数据),核心思想是:在一个含未知样本的空间,可以根据离这个样本最邻近的k个样本的数据类型来确定样本的数据类型。

首先得到鸢尾花的样本数据,每个样本有四个特征值(萼片长度,萼片宽度,花瓣长度,花瓣宽度)。先打开文件再读取能避免路径或文件名出现中文名的错误,将鸢尾花的数据分开为测试集与训练集,对鸢尾花的特征值进行标准化处理。调用KNN算法进行近邻分析,查看测试准确率。



import numpy as np

import pandas as pd

def getExcel():

    m =
open(r'C:\Users\50352\Desktop\iris.csv')

    iris=pd.read_csv(m)

    return iris

def irisDataClassification(iris):

    indexs=np.random.permutation(len(iris))

    indexs=indexs[0:10]

    testSet=iris.take(indexs)

    trainingSet=iris.drop(indexs)

    sets=[testSet,trainingSet]

    return sets

def
knn(trainingSet,testSet,trainingResults):

    totalsSize = trainingSet.shape[0]

    tests = np.tile(testSet, (totalsSize, 1)) -
trainingSet

    sqDiffMat = tests**2

    sqDistances = sqDiffMat.sum(axis=1)

    sortedDistIndices = sqDistances .argsort()

    voteIlabel =
trainingResults[sortedDistIndices[1]]

    return voteIlabel

iris=getExcel()

sets=irisDataClassification(iris)

trainingSet=sets[1].drop(columns=['species']).values

trainingResults=sets[1]['species'].values

testSets=sets[0].values

sta=0

for i in testSets:

    testSet=[i[0],i[1],i[2],i[3]]

    ret=knn(trainingSet,testSet,trainingResults)

    if ret==i[4]:

        sta+=1

successRate=sta/len(sets[0])

print('准确率为:\n',successRate)


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值