机器学习算法与Python实践之(一)k近邻(KNN)

                                            机器学习算法Python实践之(一)k近邻(KNN)

机器学习算法与Python实践这个系列主要是参考《机器学习实战》这本书。因为自己想学习Python,然后也想对一些机器学习算法加深下了解,所以就想通过Python来实现几个比较常用的机器学习算法。恰好遇见这本同样定位的书籍,所以就参考这本书的过程来学习了。

 

一、kNN算法分析

       K最近邻(k-Nearest Neighbor,KNN)分类算法可以说是最简单的机器学习算法了。它采用测量不同特征值之间的距离方法进行分类。它的思想很简单:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。

        比如上面这个图,我们有两类数据,分别是蓝色方块和红色三角形,他们分布在一个上图的二维中间中。那么假如我们有一个绿色圆圈这个数据,需要判断这个数据是属于蓝色方块这一类,还是与红色三角形同类。怎么做呢?我们先把离这个绿色圆圈最近的几个点找到,因为我们觉得离绿色圆圈最近的才对它的类别有判断的帮助。那到底要用多少个来判断呢?这个个数就是k了。如果k=3,就表示我们选择离绿色圆圈最近的3个点来判断,由于红色三角形所占比例为2/3,所以我们认为绿色圆是和红色三角形同类。如果k=5,由于蓝色四方形比例为3/5,因此绿色圆被赋予蓝色四方形类。从这里可以看到,k的值还是很重要的。

       KNN算法中,所选择的邻居都是已经正确分类的对象。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合。

       该算法在分类时有个主要的不足是,当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。因此可以采用权值的方法(和该样本距离小的邻居权值大)来改进。该方法的另一个不足之处是计算量较大,因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个最近邻点。目前常用的解决方法是事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误分[参考机器学习十大算法]。

       总的来说就是我们已经存在了一个带标签的数据库,然后输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似(最近邻)的分类标签。一般来说,只选择样本数据库中前k个最相似的数据。最后,选择k个最相似数据中出现次数最多的分类。其算法描述如下:

1)计算已知类别数据集中的点与当前点之间的距离;

2)按照距离递增次序排序;

3)选取与当前点距离最小的k个点;

4)确定前k个点所在类别的出现频率;

5)返回前k个点出现频率最高的类别作为当前点的预测分类。

 

二、Python实现

       对于机器学习而已,Python需要额外安装三件宝,分别是Numpy,scipy和Matplotlib。前两者用于数值计算,后者用于画图。安装很简单,直接到各自的官网下载回来安装即可。安装程序会自动搜索我们的python版本和目录,然后安装到python支持的搜索路径下。反正就python和这三个插件都默认安装就没问题了。

       另外,如果我们需要添加我们的脚本目录进Python的目录(这样Python的命令行就可以直接import),可以在系统环境变量中添加:PYTHONPATH环境变量,值为我们的路径,例如:E:\Python\Machine Learning in Action

 

2.1、kNN基础实践

       一般实现一个算法后,我们需要先用一个很小的数据库来测试它的正确性,否则一下子给个大数据给它,它也很难消化,而且还不利于我们分析代码的有效性。

      首先,我们新建一个kNN.py脚本文件,文件里面包含两个函数,一个用来生成小数据库,一个实现kNN分类算法。代码如下:

[python]  view plain  copy
  在CODE上查看代码片 派生到我的代码片
  1. #########################################  
  2. # kNN: k Nearest Neighbors  
  3.   
  4. # Input:      newInput: vector to compare to existing dataset (1xN)  
  5. #             dataSet:  size m data set of known vectors (NxM)  
  6. #             labels:   data set labels (1xM vector)  
  7. #             k:        number of neighbors to use for comparison   
  8.               
  9. # Output:     the most popular class label  
  10. #########################################  
  11.   
  12. from numpy import *  
  13. import operator  
  14.   
  15. # create a dataset which contains 4 samples with 2 classes  
  16. def createDataSet():  
  17.     # create a matrix: each row as a sample  
  18.     group = array([[1.00.9], [1.01.0], [0.10.2], [0.00.1]])  
  19.     labels = ['A''A''B''B'# four samples and two classes  
  20.     return group, labels  
  21.   
  22. # classify using kNN  
  23. def kNNClassify(newInput, dataSet, labels, k):  
  24.     numSamples = dataSet.shape[0# shape[0] stands for the num of row  
  25.   
  26.     ## step 1: calculate Euclidean distance  
  27.     # tile(A, reps): Construct an array by repeating A reps times  
  28.     # the following copy numSamples rows for dataSet  
  29.     diff = tile(newInput, (numSamples, 1)) - dataSet # Subtract element-wise  
  30.     squaredDiff = diff ** 2 # squared for the subtract  
  31.     squaredDist = sum(squaredDiff, axis = 1# sum is performed by row  
  32.     distance = squaredDist ** 0.5  
  33.   
  34.     ## step 2: sort the distance  
  35.     # argsort() returns the indices that would sort an array in a ascending order  
  36.     sortedDistIndices = argsort(distance)  
  37.   
  38.     classCount = {} # define a dictionary (can be append element)  
  39.     for i in xrange(k):  
  40.         ## step 3: choose the min k distance  
  41.         voteLabel = labels[sortedDistIndices[i]]  
  42.   
  43.         ## step 4: count the times labels occur  
  44.         # when the key voteLabel is not in dictionary classCount, get()  
  45.         # will return 0  
  46.         classCount[voteLabel] = classCount.get(voteLabel, 0) + 1  
  47.   
  48.     ## step 5: the max voted class will return  
  49.     maxCount = 0  
  50.     for key, value in classCount.items():  
  51.         if value > maxCount:  
  52.             maxCount = value  
  53.             maxIndex = key  
  54.   
  55.     return maxIndex   

       然后我们在命令行中这样测试即可:

[python]  view plain  copy
  在CODE上查看代码片 派生到我的代码片
  1. import kNN  
  2. from numpy import *   
  3.   
  4. dataSet, labels = kNN.createDataSet()  
  5.   
  6. testX = array([1.21.0])  
  7. k = 3  
  8. outputLabel = kNN.kNNClassify(testX, dataSet, labels, 3)  
  9. print "Your input is:", testX, "and classified to class: ", outputLabel  
  10.   
  11. testX = array([0.10.3])  
  12. outputLabel = kNN.kNNClassify(testX, dataSet, labels, 3)  
  13. print "Your input is:", testX, "and classified to class: ", outputLabel  

       这时候会输出:

[python]  view plain  copy
  在CODE上查看代码片 派生到我的代码片
  1. Your input is: [ 1.2  1.0and classified to class:  A  
  2. Your input is: [ 0.1  0.3and classified to class:  B  

2.2、kNN进阶

       这里我们用kNN来分类一个大点的数据库,包括数据维度比较大和样本数比较多的数据库。这里我们用到一个手写数字的数据库,可以到这里下载。这个数据库包括数字0-9的手写体。每个数字大约有200个样本。每个样本保持在一个txt文件中。手写体图像本身的大小是32x32的二值图,转换到txt文件保存后,内容也是32x32个数字,0或者1,如下:

       数据库解压后有两个目录:目录trainingDigits存放的是大约2000个训练数据,testDigits存放大约900个测试数据。

        这里我们还是新建一个kNN.py脚本文件,文件里面包含四个函数,一个用来生成将每个样本的txt文件转换为对应的一个向量,一个用来加载整个数据库,一个实现kNN分类算法。最后就是实现这个加载,测试的函数。

[python]  view plain  copy
  在CODE上查看代码片 派生到我的代码片
  1. #########################################  
  2. # kNN: k Nearest Neighbors  
  3.   
  4. # Input:      inX: vector to compare to existing dataset (1xN)  
  5. #             dataSet: size m data set of known vectors (NxM)  
  6. #             labels: data set labels (1xM vector)  
  7. #             k: number of neighbors to use for comparison   
  8.               
  9. # Output:     the most popular class label  
  10. #########################################  
  11.   
  12. from numpy import *  
  13. import operator  
  14. import os  
  15.   
  16.   
  17. # classify using kNN  
  18. def kNNClassify(newInput, dataSet, labels, k):  
  19.     numSamples = dataSet.shape[0# shape[0] stands for the num of row  
  20.   
  21.     ## step 1: calculate Euclidean distance  
  22.     # tile(A, reps): Construct an array by repeating A reps times  
  23.     # the following copy numSamples rows for dataSet  
  24.     diff = tile(newInput, (numSamples, 1)) - dataSet # Subtract element-wise  
  25.     squaredDiff = diff ** 2 # squared for the subtract  
  26.     squaredDist = sum(squaredDiff, axis = 1# sum is performed by row  
  27.     distance = squaredDist ** 0.5  
  28.   
  29.     ## step 2: sort the distance  
  30.     # argsort() returns the indices that would sort an array in a ascending order  
  31.     sortedDistIndices = argsort(distance)  
  32.   
  33.     classCount = {} # define a dictionary (can be append element)  
  34.     for i in xrange(k):  
  35.         ## step 3: choose the min k distance  
  36.         voteLabel = labels[sortedDistIndices[i]]  
  37.   
  38.         ## step 4: count the times labels occur  
  39.         # when the key voteLabel is not in dictionary classCount, get()  
  40.         # will return 0  
  41.         classCount[voteLabel] = classCount.get(voteLabel, 0) + 1  
  42.   
  43.     ## step 5: the max voted class will return  
  44.     maxCount = 0  
  45.     for key, value in classCount.items():  
  46.         if value > maxCount:  
  47.             maxCount = value  
  48.             maxIndex = key  
  49.   
  50.     return maxIndex   
  51.   
  52. # convert image to vector  
  53. def  img2vector(filename):  
  54.     rows = 32  
  55.     cols = 32  
  56.     imgVector = zeros((1, rows * cols))   
  57.     fileIn = open(filename)  
  58.     for row in xrange(rows):  
  59.         lineStr = fileIn.readline()  
  60.         for col in xrange(cols):  
  61.             imgVector[0, row * 32 + col] = int(lineStr[col])  
  62.   
  63.     return imgVector  
  64.   
  65. # load dataSet  
  66. def loadDataSet():  
  67.     ## step 1: Getting training set  
  68.     print "---Getting training set..."  
  69.     dataSetDir = 'E:/Python/Machine Learning in Action/'  
  70.     trainingFileList = os.listdir(dataSetDir + 'trainingDigits'# load the training set  
  71.     numSamples = len(trainingFileList)  
  72.   
  73.     train_x = zeros((numSamples, 1024))  
  74.     train_y = []  
  75.     for i in xrange(numSamples):  
  76.         filename = trainingFileList[i]  
  77.   
  78.         # get train_x  
  79.         train_x[i, :] = img2vector(dataSetDir + 'trainingDigits/%s' % filename)   
  80.   
  81.         # get label from file name such as "1_18.txt"  
  82.         label = int(filename.split('_')[0]) # return 1  
  83.         train_y.append(label)  
  84.   
  85.     ## step 2: Getting testing set  
  86.     print "---Getting testing set..."  
  87.     testingFileList = os.listdir(dataSetDir + 'testDigits'# load the testing set  
  88.     numSamples = len(testingFileList)  
  89.     test_x = zeros((numSamples, 1024))  
  90.     test_y = []  
  91.     for i in xrange(numSamples):  
  92.         filename = testingFileList[i]  
  93.   
  94.         # get train_x  
  95.         test_x[i, :] = img2vector(dataSetDir + 'testDigits/%s' % filename)   
  96.   
  97.         # get label from file name such as "1_18.txt"  
  98.         label = int(filename.split('_')[0]) # return 1  
  99.         test_y.append(label)  
  100.   
  101.     return train_x, train_y, test_x, test_y  
  102.   
  103. # test hand writing class  
  104. def testHandWritingClass():  
  105.     ## step 1: load data  
  106.     print "step 1: load data..."  
  107.     train_x, train_y, test_x, test_y = loadDataSet()  
  108.   
  109.     ## step 2: training...  
  110.     print "step 2: training..."  
  111.     pass  
  112.   
  113.     ## step 3: testing  
  114.     print "step 3: testing..."  
  115.     numTestSamples = test_x.shape[0]  
  116.     matchCount = 0  
  117.     for i in xrange(numTestSamples):  
  118.         predict = kNNClassify(test_x[i], train_x, train_y, 3)  
  119.         if predict == test_y[i]:  
  120.             matchCount += 1  
  121.     accuracy = float(matchCount) / numTestSamples  
  122.   
  123.     ## step 4: show the result  
  124.     print "step 4: show the result..."  
  125.     print 'The classify accuracy is: %.2f%%' % (accuracy * 100)  

       测试非常简单,只需要在命令行中输入:

[python]  view plain  copy
  在CODE上查看代码片 派生到我的代码片
  1. import kNN  
  2. kNN.testHandWritingClass()  

  输出结果如下:

[python]  view plain  copy
  在CODE上查看代码片 派生到我的代码片
  1. step 1: load data...  
  2. ---Getting training set...  
  3. ---Getting testing set...  
  4. step 2: training...  
  5. step 3: testing...  
  6. step 4: show the result...  
  7. The classify accuracy is98.84%  
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值