K-近邻算法学习笔记

工作原理:

存在一个样本数据集合(训练样本集),并且样本集中每个数据都存在标签,即样本集中每一数据都与所属分类有一对应关系。

当输入没有标签的新数据后,将新数据的每个特征与样本集中的数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。一般来说,只选择样本数据集中前k个最相似的数据,这也是k-近邻算法中k的出处。通常k是不大于20的整数,最后选择k个最相似数据中出现次数最多的分类,作为新数据的分类。

代码实现:

#!/usr/bin/env python3
# -*- coding: utf-8 -*-
"""
Created on Tue Sep 18 10:50:34 2018

@author: parallel
"""
import numpy as np
import operator
import os

#基本的通用函数
def createDataSet():
    group = np.array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])
    labels = ['A','A','B','B']
    return group,labels

#k-近邻算法
def classify0(inX,dataSet,labels,k):  #inX用于分类的输入向量,dataSet训练样本集,labels标签向量,k用于选择最近邻居的数目
    dataSetSize = dataSet.shape[0]   #获取数据集的大小
    diffMat = np.tile(inX,(dataSetSize,1))-dataSet  #tile重复inX,(dataSet*1维)
    sqDiffMat = diffMat**2
    sqDistances = sqDiffMat.sum(axis=1)  #按行求和
    distances = sqDistances**0.5
    sortedDistIndicies = distances.argsort()  #安距离的递增关系排列,然后提取其对应的索引
    classCount = {}
    for i in range(k):
        voteIlabel = labels[sortedDistIndicies[i]]
        classCount[voteIlabel] = classCount.get(voteIlabel,0)+1  #若存在该标签,则voteIlabel对应的值+1,否则加入该标签,值为0+1
    sortedClassCount = sorted(classCount.items(),key=operator.itemgetter(1),reverse=True) 
    #上一句的意思:#将字典分解为元组列表,然后使用itemgetter按第二个元素的次序对元组进行排序,此处逆序
    return sortedClassCount[0][0]

#实例1:使用k-近邻算法改进约会网站的配对效果
#1准备数据:从文本文件中解析数据---将文本记录转换为Numpy的解析程序
def file2matrix(filename):
    fr = open(filename)
    arrayOLines = fr.readlines()
    numberOfLines = len(arrayOLines)   #文件行数
    returnMat = np.zeros((numberOfLines,3))   #行数*3的NumPy矩阵
    classLabelVector = []
    index = 0
    for line in arrayOLines:    #解析文件数据到列表
        line = line.strip()  #去除首尾空格,截取掉所有的回车字符
        listFromLine = line.split('\t')    #用\t对字符串line进行切片,将上一行得到的整行数据分割成一个元素列表
        returnMat[index,:] = listFromLine[0:3]  #只选取前三个元素
        classLabelVector.append(int(listFromLine[-1]))  #明确的告诉解释器,存储的元素值是整型,否则python会将这些元素当作字符串处理。
        index += 1
    return returnMat,classLabelVector

#2归一化特征值
def autoNorm(dataSet):
    minVals = dataSet.min(0)  #0是使得函数可以从列中选取最小值,而不是选取当前行的最小值
    maxVals = dataSet.max(0)
    ranges = maxVals-minVals
    normDataSet = np.zeros(np.shape(dataSet))
    m = dataSet.shape[0]
    normDataSet = dataSet-np.tile(minVals,(m,1))  #当前值减去最小值
    normDataSet = normDataSet/np.tile(ranges,(m,1))  #然后除以取值范围(具体特征值相除)
    return normDataSet,ranges,minVals

#分类器针对约会网站的测试代码
def datingClassTest():
    hoRatio = 0.10
    datingDataMat, datingLabels = file2matrix('datingTestSet2.txt')
    normMat, ranges, minVals = autoNorm(datingDataMat)
    m = normMat.shape[0]
    numTestVecs = int(m*hoRatio)
    errorCount = 0.0
    for i in range(numTestVecs):
        classifierResult = classify0(normMat[i,:],normMat[numTestVecs:m,:],datingLabels[numTestVecs:m],3)
        print("the classifier came back with: %d, the real answer is: %d" % (classifierResult,datingLabels[i]))
        if (classifierResult != datingLabels[i]): 
            errorCount += 1.0
    print("the total error rate is: %f" % (errorCount/float(numTestVecs)))
    
#使用算法构建完整的可用系统---约会网站预测函数
def classifyPerson():
    resultList = ['not at all','in small doses','in large doses']
    percentTats = float(input("percentage of time spent playing video games?"))  #raw_input
    ffMiles = float(input("frequent flier miles earned per year?"))   #允许用户输入文本行命令并返回所输入的命令
    iceCream = float(input("liters of ice cream consumed per year?"))
    datingDataMat,datingLabels = file2matrix('datingTestSet2.txt')
    normMat,ranges,minVals = autoNorm(datingDataMat)
    inArr = np.array([ffMiles,percentTats,iceCream])
    classifierResult = classify0((inArr-minVals)/ranges, normMat, datingLabels, 3)
    print("You will probably like this person: ", resultList[classifierResult-1])
    
#实例2:手写识别系统
#准备数据:将图像转换为测试向量---img2vector
def img2vector(filename):
    returnVect = np.zeros((1,1024)) 
    fr = open(filename)
    for i in range(32):            #循环读出32行       
        lineStr = fr.readline()
        for j in range(32):    #每行的头32个字符值存储在Numpy数组中
            returnVect[0,32*i+j] = int(lineStr[j])
    return returnVect

#测试算法,使用k-近邻算法识别手写数字
def handwritingClassTest():
    hwLabels = []
    trainingFileList = os.listdir('digits/trainingDigits')
    m = len(trainingFileList)  #图像的个数
    trainingMat = np.zeros((m,1024)) #一行存一个图片
    for i in range(m):
        fileNameStr = trainingFileList[i] #得到文件名,如0_4.txt
        fileStr = fileNameStr.split('.')[0]   #从文件名中解析出分类数字,0_4
        classNumStr = int(fileStr.split('_')[0]) #0
        hwLabels.append(classNumStr)
        trainingMat[i,:] = img2vector('digits/trainingDigits/%s' % fileNameStr)
    testFileList = os.listdir('digits/testDigits')
    errorCount = 0.0
    mTest = len(testFileList)
    for i in range(mTest):
        fileNameStr = testFileList[i]
        fileStr = fileNameStr.split('.')[0]
        classNumStr = int(fileStr.split('_')[0])  #得到真实的数字分类
        vectorUnderTest = img2vector('digits/testDigits/%s' % fileNameStr)
        classifierResult =classify0(vectorUnderTest, trainingMat, hwLabels, 3)
        print("the classifier came back with: %d, the real answer is: %d" % (classifierResult, classNumStr))
        if (classifierResult != classNumStr):
            errorCount += 1.0
    print("\nthe total number of errors is: %d" % errorCount)
    print("\nthe total error rate is: %f" % (errorCount/float(mTest)))

在实验中显示k=3的效果比较好。

影响kNN算法效果的因素包括:k值,训练样本的数目以及随机选择训练样本等。

除此之外,KNN算法执行效率不高,因为算法需要为每个测试向量做多次距离计算,每个距离计算包括1024个纬度的浮点运算。而且还需要为测试向量准备一定的存储空间。

k决策树是k-近邻算法的优化版,可以减少存储空间和计算时间的开销。

学习《机器学习实战》一书。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值