《机器学习实战》(一) k-近邻算法 &决策树

k-近邻算法概述

简单地说,k-近邻算法采用测量不同特征值之间的距离方法进行分类。

优点:精度高、对异常值不敏感、无数据输入假定。
缺点:计算复杂度高、空间复杂度高。
适用数据范围:数值型和标称型。

工作原理

存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最想死数据(最近邻)的分类标签。一般来说,我们只选择样本数据集中前k个最相似的数据,这就是k-近邻算法中k的出处,通常k是不大于20的整数。最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类。

一般流程

  1. 收集数据:可以使用任何方法。
  2. 准备数据:距离计算所需要的数值,最好是结构化的数据格式。
  3. 分析数据:可以使用任何方法。
  4. 训练算法:此步骤不适用于k-近邻算法。
  5. 测试算法:计算错误率。
  6. 使用算法:首先需要输入样本数据和结构化的输出结果,然后运行k-近邻算法判定输入数据分别属于哪个分类,最后应用对计算出的分类执行后续的处理。

使用Python导入数据

  1. 创建名为kNN.py的Python模块;
    from numpy import *
    import operator
    
    def CreateDataSet():
    	group = array([[1.0,1.1],[1.0,1.0],[0,0,],[0,0.1]])
    	labels = ['A','A','B','B']
    	return group,labels
    
  2. 从文本文件中解析数据
    伪代码:
    1. 计算一直类别数据集中的点与当前点之间的距离;
    2. 按照距离递增次序排序;
    3. 选取与当前点距离最小的k个点;
    4. 确定前k个点所在类别的出现频率;
    5. 返回前k个点出现频率最高的类别作为当前点的预测分类。

k近邻算法

def classify0(inX, dataSet,labels,k):
#距离计算
	dataSetSize = dataSet.shape[0] #shape以元组形式返回数组各个维度的元素个数
	diffMat = tile(inX,(dataSetSize,1)) - dataSet #tile construct an array by repeating A the number of times given by reps.
	sqDiffMat = diffMat**2
	sqDistances = sqDiffMat.sum(axis=1)
	distances = sqDistances**0.5
	sortedDistIndicies = distances.argsort()
#选择距离最小的k个点
	classCount = {
   }
	for i in range(k):
		voteIlabel = labels[sortedDistIndicies[i]]
		classCount[voteIlabel] = classCount.get(voteIlabel,0) +1
#排序		
	sortedClassCount = sorted(classCount.items(),
		key = operator.itemgetter(1),reverse=True)
	return sortedClassCount[0][0]	

classify0()函数有4个输入参数:用于分类的输入向量是inX,输入的训练样本集为dataSet,标签向量为labels.最后的参数k表示用于选择最近邻居的数目,其中标签向量的元素数目和矩阵dataSet的行数相同。
采用的是欧式距离公式,计算两个向量点xA和xB之间的距离:
在这里插入图片描述
计算完所有点之间的距离后,可以对数据按照从小到大的次序排序。然后确定前k个距离最小元素所在的主要分类,输入k总是正整数;最后,将calssCount字典分解为元祖列表,然后使用程序第二行导入运算符模块的itemgetter方法,按照第二个元素的次序对元祖进行排序。此处的排序为逆序,即按照从大到小的次序排序,最后返回发生频率最高的元素标签。
为了预测数据所在分类,输入以下命令:
>>> kNN.classify0([0,0],group,labels,3)

示例:使用k-近邻算法改进约会网站的配对效果

在约会网站上使用k-近邻算法
1.收集数据:提供文本文件
2.准备数据:使用Python解析文本文件
3.分析数据:使用Matplotlib画二维扩散图
4.测试算法:使用提供的部分数据作为测试样本
5.使用算法:产生简单的命令行程序,然后海伦可以输入一些特征数据以判断对方是否为自己喜欢的类型

准备数据:从文本文件中解析数据

对于给出的文本文件datingTestSet.txt中,每个样本数据占据一行,总共有1000行。样本主要包含以下3种特征:

  • 每年获得的飞行常客里程数
  • 玩视频游戏所耗时间百分比
  • 每周消费的冰淇淋公升数
    在将上述特征数据输入到分类器之前,必须将待处理数据的格式改变为分类器可以接受的格式。在kNN.py中创建名为file2matrix的函数,以此来处理输入格式问题。该函数的输入为文件名字符串,输出为训练样本矩阵和类标签向量。
def file2matrix(filename):
   fr = open(filename)
   arrayOLines = fr.readlines()
   numberOfLines = len(arrayOLines) #得到文件行数
   returnMat = zeros((numberOfLines,3))
   classLabelVetor = []
   index = 0
   for line in arrayOLines:
   		line = line.strip()
   		listFromLine = line.split('\t')
   		returnMat[index,:] = listFromLine[0:3]
   		classLabelVetor.append(int(listFromLine[-1]))
   		index += 1
   return returnMat,classLabelVetor

分析数据:使用Matplotlib创建散点图

首先导入包:

import matplotlib
import matplotlib.pyplot as plt

然后添加一个绘制函数paint:

def paint():
   datingDataMat,datingLabels = file2matrix('datingTestSet2.txt')
   fig = plt.figure()
   ax = fig.add_subplot(111)
   ax.scatter(datingDataMat[:,1],datingDataMat[:,2],15.0*array(datingLabels),15.0*array(datingLabels))
   plt.show()

在这里插入图片描述

准备数据:归一化数据

在处理不同取值范围的特征值时,我们通常采用的方法是将数值归一化,如将取值范围处理为0到1或者-1到1之间。下面的公式可以将任意取值范围的特征值转化为0到1的区间。
newValue = (oldValue-min)/(max-mi

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值