机器学习实战-使用KNN改进约会网站的配对效果-python3代码

k近邻算法的基本原理:即KNN,是一个林轮上比较成熟的算法,也是最简单的机器学习算法之一。如果一个样本在特征空间中的k个最为相似的样本中的大多数属于某一个类别,则该样本也数据这个类别。给定一个数据集,对新的 输入实例,在训练数据集中找到与该实例最邻近的k个实例,这k个实例的多数属于某个类别,就把该输入实例分类到这个类中。
k近邻算法的优点:
1.简单,易于理解,易于实现,,无需参数估计,无需训练。
2.对异常值不敏感
3.适合对西游世界安进行分类
4.适合于多分类问题
k近邻算法的缺点:
1.对测试样本分类时对计算量大,内存开销大
2.可解释性差,无法告诉你哪个变量更重要,无法给出决策树那样的规则
3.k值的选择最大的缺点是当样本不平衡时,如果一个类的样本容量很大,而其他类的样本容量很小,有可能导致当输入一个新样本时,该样本的k个邻居中大容量类的样本占多数
4.k近邻算法是一种消极学习算法,懒惰算法。

机器学习实战课本是基于python2的所以有一些属性不存在了。

 

from numpy import *
import matplotlib
import matplotlib.pyplot as plt
import operator

def file2matrix(filename):
    fr=open(filename)
    arrayOLines=fr.readlines()
    numberOfLines=len(arrayOLines)
    returnMat=zeros((numberOfLines,3))
    classLabelVector=[]
    index=0
    for line in arrayOLines:
        line=line.strip()
        listFromLine=line.split('\t')
        returnMat[index,:]=listFromLine[0:3]
        classLabelVector.append(int (listFromLine[-1]))
        index+=1
    return returnMat,classLabelVector 

def autoNorm(dataSet):
    minVals=dataSet.min(0)
    maxVals=dataSet.max(0)
    ranges=maxVals-minVals
    normDataSet=zeros(shape(dataSet))
    m=dataSet.shape[0]
    normDataSet=dataSet-tile(minVals,(m,1))
    normDataSet=normDataSet/tile(ranges,(m,1))
    return normDataSet,ranges,minVals

def classify0(inX,dataSet,labels,k):
    dataSetSize=dataSet.shape[0]
    diffMat=tile(inX,(dataSetSize,1))-dataSet
    sqDiffMat=diffMat**2
    sqDistances=sqDiffMat.sum(axis=1)
    distances=sqDistances**0.5
    sortedDistIndicies=distances.argsort()
    classCount={}
    for i in range(k):
        voteIlabel=labels[sortedDistIndicies[i]]
        classCount[voteIlabel]=classCount.get(voteIlabel,0)+1
    sortedClassCount=sorted(classCount.items(),key=operator.itemgetter(1),reverse=True)
    return sortedClassCount[0][0]

def datingClassTest():
    hoRatio=0.10
    datingDataMat,datingLabels=file2matrix('../datingTestSet2.txt')
    normMat,ranges,minVals=autoNorm(datingDataMat)
    m=normMat.shape[0]
    numTestVecs=int(m*hoRatio)
    errorCount=0.0
    for i in range(numTestVecs):
        classifierResult=classify0(normMat[i,:],normMat[numTestVecs:m,:],datingLabels[numTestVecs:m],3)
        print( '分类结果是%d,真实结果是%d'%(classifierResult,datingLabels[i]))
        if(classifierResult!=datingLabels[i]):
            errorCount+=1.0
            #print(errorCount)
    print('错误率是%f'%(errorCount/float(numTestVecs)))   

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值