机器学习实战——kNN算法

1.kNN算法的原理与基本实现

k近邻法(k-nearest neighor, k-NN),是一种基本的分类和回归方法。这里只讨论分类问题中的k近邻。
k近邻法的输入为实例的特征向量,对应于特征空间的点;输出为实例的类别,可以取多类。
k近邻法假设给定一个训练数据集,其中的实例类别已定,分类时,对新的实例,根据其k个最近邻的训练实例的类别,通过多数表决的方式进行预测。
因此k近邻法不具有显式的学习过程
采用测量不同特征值之间的距离方法进行分类。

k近邻算法优缺点
k近邻法流程:
这里写图片描述
算法原理:
这里写图片描述
算法伪代码:
(1)计算已知类别数据集中的点与当前点之间的距离;
(2)按照距离递增次序排序;
(3)选取与当前点距离最小的走个点;
(4)确定前k个点所在类别的出现频率;
(5)返回前女个点出现频率最高的类别作为当前点的预测分类。

from numpy import *
import operator
from os import listdir
#基本kNN实现
def classify0(inX, dataSet, labels, k):
    dataSetSize = dataSet.shape[0]  # 行数,也就是第一维度
    diffMat = tile(inX, (dataSetSize, 1)) - dataSet  # 复制dataSetSize行数的inX,计算差值
    sqDiffMat = diffMat**2  # 平方,欧式距离
    sqDistances = sqDiffMat.sum(axis=1)  # axis=0表述列 axis=1表述行,此处表示把行向量相加
    distances = sqDistances**0.5
    sortedDistIndicies = distances.argsort()   # 排序后的下标,argsort函数返回的是数组值从小到大的索引值
    classCount={}          
    for i in range(k):
        voteIlabel = labels[sortedDistIndicies[i]]
        classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1   
        # get()函数返回指定键的值(voteIlabel),如果值不在字典中返回0值
    sortedClassCount = sorted(classCount.iteritems(), key=operator.itemgetter(1), reverse=True)
    # 使用程序第二行导入运算符模块的itemgetter方法,按照第二个元素次序进行排序,逆序 :从大到小
    return sortedClassCount[0][0] # 最大的类

2.使用k-近邻算法改进约会网站的配对效果

def file2matrix(filename):
    fr = open(filename)
    numberOfLines = len(fr.readlines())         # get the number of lines in the file
    returnMat = zeros((numberOfLines, 3))        # prepare matrix to return
    classLabelVector = []                       # prepare labels return
    fr = open(filename)
    index = 0
    for line in fr.readlines():
        line = line.strip()         # 截取掉所有回车字符
        listFromLine = line.split('\t')  # 使用tab字符将上一步得到的整行数据分割成一个元素列表
        returnMat[index, :] = listFromLine[0:3]  # 抽取前三列数据,不包括第三列
        classLabelVector.append(int(listFromLine[-1]))
        index += 1
    return returnMat, classLabelVector
#归一化
def autoNorm(dataSet):
    minVals = dataSet.min(0)  # 每列最小值
    maxVals = dataSet.max(0)
    ranges = maxVals - minVals
    normDataSet = zeros(shape(dataSet))
    m = dataSet.shape[0]
    normDataSet = dataSet - tile(minVals, (m,1)) # 分子,归一化(x-min)/(max-min)
    normDataSet = normDataSet/tile(ranges, (m,1))   # element wise divide
    return normDataSet, ranges, minVals

def datingClassTest():
    hoRatio = 0.10      # hold out 10%
    datingDataMat,datingLabels = file2matrix('datingTestSet2.txt')       # label处理好的数据 load data setfrom file
    normMat, ranges, minVals = autoNorm(datingDataMat)
    m = normMat.shape[0]
    numTestVecs = int(m*hoRatio)  #测试样本占总数据的90%
    errorCount = 0.0
    for i in range(numTestVecs):
        classifierResult = classify0(normMat[i, :], normMat[numTestVecs:m, :], datingLabels[numTestVecs:m], 3)
        print ("the classifier came back with: %d, the real answer is: %d" % (classifierResult, datingLabels[i]))
        if (classifierResult != datingLabels[i]): errorCount += 1.0
    print ("the total error rate is: %f" % (errorCount/float(numTestVecs)))
    print (errorCount)
#约会网站预测函数
def classifyperson():
    resultList = ['not at all', 'in small doses', 'in large doses']
    percentTats = float(raw_input("percentage of time spent playing video games?"))
    ffMiles = float(raw_input("frenquent flier miles earned per year?"))
    iceCream = float(raw_input("liters of ice cream consumed per year?"))
    datingDataMat, datingLabels = file2matrix('datingTestSet2.txt')
    normMat, ranges, minVal = autoNorm(datingDataMat)
    inArr = array([ffMiles, percentTats, iceCream])
    classifierResult = classify0((inArr-minVal)/ranges, normMat,datingLabels,3)
    print "you will probably like this person:", resultList[classifierResult-1]
#测试
classifyperson()

程序输出:
这里写图片描述

3. 示例:手写识别系统



def img2vector(filename):
    returnVect = zeros((1,1024))
    fr = open(filename)
    for i in range(32):
        lineStr = fr.readline()
        for j in range(32):
            returnVect[0,32*i+j] = int(lineStr[j]) #把32*32的图像转化成1*1024的向量
    return returnVect

def handwritingClassTest():
    hwLabels = []
    trainingFileList = listdir('trainingDigits')           # 使用os.listdir()函数获得指定目录中的内容 load the training set
    m = len(trainingFileList)
    trainingMat = zeros((m,1024))
    for i in range(m):
        fileNameStr = trainingFileList[i]
        fileStr = fileNameStr.split('.')[0]     # take off .txt
        classNumStr = int(fileStr.split('_')[0])  # 去掉_
        hwLabels.append(classNumStr)
        trainingMat[i, :] = img2vector('trainingDigits/%s' % fileNameStr)
    testFileList = listdir('testDigits')        # iterate through the test set
    errorCount = 0.0
    mTest = len(testFileList)
    for i in range(mTest):
        fileNameStr = testFileList[i]
        fileStr = fileNameStr.split('.')[0]     #take off .txt
        classNumStr = int(fileStr.split('_')[0])
        vectorUnderTest = img2vector('testDigits/%s' % fileNameStr)
        classifierResult = classify0(vectorUnderTest, trainingMat, hwLabels, 3)

        if (classifierResult != classNumStr):
            errorCount += 1.0
            print ("the classifier came back with: %d, the real answer is: %d" % (classifierResult, classNumStr))
    print ("\nthe total number of errors is: %d" % errorCount)
    print ("\nthe total error rate is: %f" % (errorCount/float(mTest)))


handwritingClassTest()

这里写图片描述
可以看出错误率仅为1.2%。改变变量k的值、 修改函数handwritingClassTest()随机选取训练样本、改变训练样本的数目,都会对k-近邻算法的错误率产生影响,可以改变这些变量值,观察错误率的变化。
实际使用这个算法时,算法的执行效率并不高。因为算法需要为每个测试向量做2000次距离
计 算 ,每个距离计算包括了1024个维度浮点运算,总计要执行900次 ,此外,我们还需要为测试
向量准备2MB 的存储空间。是否存在一种算法减少存储空间和计算时间的开销呢?k决策树就是
A-近邻算法的优化版,可以节省大量的计算开销。

小结

k-近邻算法是分类数据最简单最有效的算法,本章通过两个例子讲述了如何使用k-近邻算法构造分类器。k-近邻算法是基于实例的学习,使用算法时我们必须有接近实际数据的训练样本数据。k-近邻算法必须保存全部数据集,如果训练数据集的很大,必须使用大量的存储空间。此外,由于必须对数据集中的每个数据计算距离值,实际使用时可能非常耗时。k近邻算法的另一个缺陷是它无法给出任何数据的基础结构信息,因此我们也无法知晓平均实例样本和典型实例样本具有什么特征。下一章我们将使用概率测量方法处理分类问题, 该算法可以解决这个问题。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值