《机器学习实战》-- KNN算法

KNN算法(K-Nearest Neighbor,k最近邻分类算法)

1. 算法思想

从训练样本中选择k个与测试样本“距离”最近的样本,这k个样本中出现频率最高的类别即作为测试样本的类别。
原理:物以类聚
优缺点:
优点:算法简单,易于实现,不需要参数估计,不需要事先训练
缺点:KNN计算量大,且训练样本必须存储在本地,内存开销也特别大

2. 基本测试

使用简单数据对KNN算法进行测试。

from numpy import *  #科学计算包
import operator   # 运算符模块

def createDataSet():
    group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])
    labels = ['A','A','B','B']
    return group,labels

# 使用KNN算法进行分类
def classify(inX, dataSet, labels, k):
    # inX:输入的单个样本;[0,0]
    # dataSet训练样本,对应trainData;[[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]],dataSet.shape[0]=4
    # labels对应trainLabel,
    # k是KNN算法选定的k,一般选择0~20之间的整数
    # 返回值:inX的label,即图片inX对应的数字
    dataSetSize = dataSet.shape[0]  #返回训练集行数

    ########### 计算距离(欧式距离,sqrt((x1-x2)^2 + (y1-y2)^2) + (z1-z2)^2) #############
    #print(tile(inX, (dataSetSize,1))) # [[0 0] [0 0] [0 0] [0 0]]
    diffMat = tile(inX, (dataSetSize,1)) - dataSet  #tile(inX, (dataSetSize,1))将inx构造为dataSetSize*1的数组
    #print(diffMat)  #[[-1.  -1.1] [-1.  -1. ] [ 0.   0. ] [ 0.  -0.1]]
    sqDiffMat = diffMat**2
    sqDistances = sqDiffMat.sum(axis = 1)  #按行累加
    distances = sqDistances**0.5
    sortedDistIndicies = distances.argsort() #得到矩阵中每个元素的排序序号

    ########### 选择距离最小的k个点 #############
    classCount = {}
    for i in range(k):
        #sortedDistIndicies[i]表示第i小的样本在原样本集中的位置,从而找到相应的labels
        voteIlabel = labels[sortedDistIndicies[i]]
        #从字典classCount中获取key=voteIlabe对应的value,没有找到则返回0 
        classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1

    ########### classCount统计了距离最小的k个点的label,对其排序得到最大值 #############
    #operator.itemgetter(1),operator模块提供的itemgetter函数用于获取对象的哪些维的数据
    #字典items()函数以列表返回可遍历的(键,值)元组数组
    #因此,该句表示对字典中的元素按照值的大小进行降序排序
    sortedClassCount = sorted(classCount.items(), key = operator.itemgetter(1), reverse = True)
    #排序后的第一个元素的值即为预测结果
    return sortedClassCount[0][0]

group,labels = createDataSet()
result = classify([0,0], group, labels, 3)
print(result)

3. 改进约会网站的配对效果

在处理取值范围不同,重要程度相同的特征值时,通常采用的方法是将数值归一化,如将取值范围处理为0~1或-1~1之间。
使用公式:

newValue = (oldValue - min) / (max - min)

将任意取值范围的特征值转化为[0,1]区间内的值。

取数据集中5%的数据作为测试样本,剩余数据作为训练样本,求错误率来评估分类器的性能。测试显示,取5%的测试样本,错误率为2%;取10%的测试样本,错误率为5%。(与书中并不一致)

from numpy import *
import operator
import sys

#从文本文件中读取数据
def file2matrix(filename):
    fr = open(filename)
    arrayOLines = fr.readlines()
    numberOfLines = len(arrayOLines)
    returnMat = zeros((numberOfLines,3))
    classLabelVector = []
    index = 0
    for line in arrayOLines:
        line = line.strip()
        listFromLine = line.split('\t')
        returnMat[index,:] = listFromLine[0:3]
        classLabelVector.append(int(listFromLine[-1]))
        index += 1
    return returnMat,classLabelVector

#不同取值范围的特征值具有同等重要性时,通常采用的方法是将数值归一化
# newValue = (oldValue-min)/(max-min)
def autoNorm(dataSet):
    minVals = dataSet.min(0)
    maxVals = dataSet.max(0)
    ranges = maxVals - minVals
    normDataSet = zeros(shape(dataSet))
    m = dataSet.shape[0]
    normDataSet = dataSet - tile(minVals, (m,1))
    normDataSet = normDataSet/tile(ranges, (m,1))
    return normDataSet,ranges, minVals

# 使用KNN算法进行分类
def classify(inX, dataSet, labels, k):
    # inX:输入的单个样本;[0,0]
    # dataSet训练样本,对应trainData;[[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]],dataSet.shape[0]=4
    # labels对应trainLabel,
    # k是KNN算法选定的k,一般选择0~20之间的整数
    # 返回值:inX的label,即图片inX对应的数字
    dataSetSize = dataSet.shape[0]  #返回训练集行数

    ########### 计算距离(欧式距离,sqrt((x1-x2)^2 + (y1-y2)^2) + (z1-z2)^2) #############
    #print(tile(inX, (dataSetSize,1))) # [[0 0] [0 0] [0 0] [0 0]]
    diffMat = tile(inX, (dataSetSize,1)) - dataSet  #tile(inX, (dataSetSize,1))将inx构造为dataSetSize*1的数组
    #print(diffMat)  #[[-1.  -1.1] [-1.  -1. ] [ 0.   0. ] [ 0.  -0.1]]
    sqDiffMat = diffMat**2
    sqDistances = sqDiffMat.sum(axis = 1)  #按行累加
    distances = sqDistances**0.5
    sortedDistIndicies = distances.argsort() #得到矩阵中每个元素的排序序号

    ########### 选择距离最小的k个点 #############
    classCount = {}
    for i in range(k):
        #sortedDistIndicies[i]表示第i小的样本在原样本集中的位置,从而找到相应的labels
        voteIlabel = labels[sortedDistIndicies[i]]
        #从字典classCount中获取key=voteIlabe对应的value,没有找到则返回0 
        classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1

    ########### classCount统计了距离最小的k个点的label,对其排序得到最大值 #############
    #operator.itemgetter(1),operator模块提供的itemgetter函数用于获取对象的哪些维的数据
    #字典items()函数以列表返回可遍历的(键,值)元组数组
    #因此,该句表示对字典中的元素按照值的大小进行降序排序
    sortedClassCount = sorted(classCount.items(), key = operator.itemgetter(1), reverse = True)
    #排序后的第一个元素的值即为预测结果
    return sortedClassCount[0][0]

# 测试分类器的性能,使用错误率
def datingClassTest():
    hoRatio = 0.05  #表示测试数据比例占10%,训练数据为90%
    datingDataMat,datingLabels = file2matrix('datingTestSet2.txt')
    normMat, ranges, minVals = autoNorm(datingDataMat)
    m = normMat.shape[0]
    numTestVecs = int(m*hoRatio)
    errorCount = 0.0
    for i in range(numTestVecs):
        classifierResult = classify(normMat[i,:],normMat[numTestVecs:m,:], datingLabels[numTestVecs:m],3)
        print("the classifier came back with:%d, the real answer is:%d" % (classifierResult,datingLabels[i]))
        if classifierResult != datingLabels[i]:
            errorCount += 1.0
    print("the total error rate is: %f" % (errorCount/float(numTestVecs)))

# 约会网站预测函数
def classifyPerson():
    resultList = ['not at all','in small doses','in large doses']
    percentTats = float(input("Percentage of time spent playing video games?"))
    ffMiles = float(input("frequent flier miles earned per year?"))
    iceCream = float(input("liters of ice cream consumed per year?"))
    datingDataMat,datingLabels = file2matrix("datingTestSet2.txt")
    normMat, ranges, minVals = autoNorm(datingDataMat)
    inArr = array([ffMiles, percentTats, iceCream])
    classifierResult = classify((inArr-minVals)/ranges, normMat, datingLabels,3)
    print("You will probably like this person:", resultList[classifierResult-1]) #resultList的下标为0,1,2

datingClassTest()
classifyPerson()

测试结果:
测试结果

4. 手写字识别系统

为简便计算,将输入手写字图像的处理为32*32的二值图像。
另外,需从OS模块导入listdir函数,列出给定目录的文件名。

# 输入图像:宽高为32*32的黑白图像

from numpy import *
import operator
from os import listdir  #从OS模块导入listdir函数,列出给定目录的文件名


#将32*32的二进制图像矩阵转化为
def img2vector(filename):
    returnVect = zeros((1,1024))
    fr = open(filename)
    for i in range(32):
        lineStr = fr.readline()
        for j in range(32):
            returnVect[0,32*i+j] = int(lineStr[j])
    return returnVect

# 使用KNN算法进行分类
def classify(inX, dataSet, labels, k):
    # inX:输入的单个样本;[0,0]
    # dataSet训练样本,对应trainData;[[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]],dataSet.shape[0]=4
    # labels对应trainLabel,
    # k是KNN算法选定的k,一般选择0~20之间的整数
    # 返回值:inX的label,即图片inX对应的数字
    dataSetSize = dataSet.shape[0]  #返回训练集行数

    ########### 计算距离(欧式距离,sqrt((x1-x2)^2 + (y1-y2)^2) + (z1-z2)^2) #############
    #print(tile(inX, (dataSetSize,1))) # [[0 0] [0 0] [0 0] [0 0]]
    diffMat = tile(inX, (dataSetSize,1)) - dataSet  #tile(inX, (dataSetSize,1))将inx构造为dataSetSize*1的数组
    #print(diffMat)  #[[-1.  -1.1] [-1.  -1. ] [ 0.   0. ] [ 0.  -0.1]]
    sqDiffMat = diffMat**2
    sqDistances = sqDiffMat.sum(axis = 1)  #按行累加
    distances = sqDistances**0.5
    sortedDistIndicies = distances.argsort() #得到矩阵中每个元素的排序序号

    ########### 选择距离最小的k个点 #############
    classCount = {}
    for i in range(k):
        #sortedDistIndicies[i]表示第i小的样本在原样本集中的位置,从而找到相应的labels
        voteIlabel = labels[sortedDistIndicies[i]]
        #从字典classCount中获取key=voteIlabe对应的value,没有找到则返回0 
        classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1

    ########### classCount统计了距离最小的k个点的label,对其排序得到最大值 #############
    #operator.itemgetter(1),operator模块提供的itemgetter函数用于获取对象的哪些维的数据
    #字典items()函数以列表返回可遍历的(键,值)元组数组
    #因此,该句表示对字典中的元素按照值的大小进行降序排序
    sortedClassCount = sorted(classCount.items(), key = operator.itemgetter(1), reverse = True)
    #排序后的第一个元素的值即为预测结果
    return sortedClassCount[0][0]



def handwritingClassTest():
    hwLabels = []
    trainingFileList = listdir('trainingDigits')
    m = len(trainingFileList)
    trainingMat = zeros((m,1024))
    for i in range(m):
        fileNameStr = trainingFileList[i]
        fileStr = fileNameStr.split('.')[0]
        classNumStr = int(fileStr.split('_')[0])
        hwLabels.append(classNumStr)
        trainingMat[i,:] = img2vector('trainingDigits/%s' % fileNameStr)
    testFileList = listdir('testDigits')
    errorCount = 0.0
    mTest = len(testFileList)
    for i in range(mTest):
        fileNameStr = testFileList[i]
        fileStr = fileNameStr.split('.')[0]
        classNumStr = int(fileStr.split('_')[0])
        vectorUnderTest = img2vector('testDigits/%s' % fileNameStr)
        classifierResult = classify(vectorUnderTest, trainingMat, hwLabels, 3)
        print("the classifier came back with: %d, the real answer is: %d" % (classifierResult,classNumStr))
        if classifierResult != classNumStr:
            errorCount += 1.0
    print("the total error rate is: %f" % (errorCount/float(mTest)))

handwritingClassTest()

使用到的数据在http://download.csdn.net/detail/nature_xd/9759044中可下载。
测试样本:2000个,每个样本大小为32*32,整理为1*1024
测试样本:900个

实际使用这个算法时,算法的执行效率并不高。因为算法需要为每个测试向量做2000次距离计算,每个距离计算包括1024个浮点运算,一共要执行900次,也就是有900*2000*1024次浮点数运算。

是否存在一种算法减少存储空间和计算时间的开销呢?
《机器学习实战》中说K决策树就是k近邻算法的优化版,可以节省大量的计算开销。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值