《机器学习实战》基于k-近邻算法实现约会对象的分类

代码实现如图 ,详细解释都在注释中

import numpy as np
# 导入运算符模块
import operator


def createDataSet():
    group = np.array([[1.0, 1.1], [1.0, 1.0], [0, 0], [0, 0.1]])  # 创建数据集
    labels = ['A', 'A', 'B', 'B']
    return group, labels


def classify0(inX, dataSet, labels, k):
    """
    :param inX: 用于分类的输入向量
    :param dataSet: 输入的训练样本集
    :param labels: 标签向量
    :param k: 用于选择最近邻居的数目
    :return: 返回输入向量的预测标签
    """
    dataSetSize = dataSet.shape[0]  # 获取样本的数目
    # tile函数(第二个参数若输入一个二元祖,第一个数表示复制的行数,第二个数表示对inx的重复的次数)
    diffMat = np.tile(inX, (dataSetSize, 1)) - dataSet  # diffMat:是一个ndarray矩阵,每一行存储了inX减去一个样本数据的结果向量
    sqDiffMat = diffMat ** 2  # 对相减的结果矩阵进行平方
    sqDistances = sqDiffMat.sum(axis=1)  # 在列的方向上对每一行的结果进行累加
    distances = sqDistances ** 0.5  # 对累加后的结果进行开方,获得inX对每个样本的距离向量,也就是一维的ndarray数组
    sortedDistIndicies = distances.argsort()  # argsort()函数返回distance排序后的下标数组,默认为递增排序(升序)
    classCount = {}
    for i in range(k):  # 遍历前k个距离最小的点
        voteIlabel = labels[sortedDistIndicies[i]]  # 取出该点对应的标签
        classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1  # classCount对前k个点的标签进行计数
    sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True)  # 根据字典的值域进行降序排序
    return sortedClassCount[0][0]  # 返回预测结果


def file2matrix(filename):  # 将文本记录转换为Numpy的解析程序
    """
    :param filename: 文件名
    :return returnMat: 样本集
    :return classLabelVector: 样本集的标记
    """
    fr = open(filename)
    arrayOLines = fr.readlines()  # 获得一个每一项元素为文件每一行的列表
    numberOfLines = len(arrayOLines)
    returnMat = np.zeros((numberOfLines, 3))  # returnMat为n行3列元素全为0的ndarray数组
    classLabelVector = []  # 用来存放每一行的标签
    labeldict = {"largeDoses": 3, "smallDoses": 2, "didntLike": 1}
    index = 0  # index用于记录序号
    for line in arrayOLines:  # 遍历每一行的数据
        line = line.strip()  # 首先清除文本首尾的空白符
        listFromLine = line.split('\t')  # 文件数据以制表符分隔,所以需要按制表符将每一行分割成字符串列表
        returnMat[index, :] = listFromLine[0:3]  # 将样本数据(三个特征,三维)存入returnMat中,returnMat为样本集
        classLabelVector.append(labeldict[listFromLine[-1]])  # 将当前样本的标签存入数组
        index += 1
    return returnMat, classLabelVector


def autoNorm(dataSet):  # 归一化特征值
    """
    :param dataSet: 样本集
    :return normDataSet: 归一化结果矩阵
    :return ranges: 归一化分母,特征数据最大值-最小值的一维向量
    :return minVals: 特征数据最小值的一维向量
    """
    minVals = dataSet.min(axis=0)  # 按行求最小值,也就是每一类数据的最小值
    maxVals = dataSet.max(axis=0)  # 每一类数据的最大值
    ranges = maxVals - minVals  # 归一化的分母
    normDataSet = np.zeros(np.shape(dataSet))  # normDataSet:用来存放归一化的结果,此处为初始化
    m = dataSet.shape[0]  # 获取样本数
    normDataSet = dataSet - np.tile(minVals, (m, 1))  # 归一化的分子
    normDataSet = normDataSet / np.tile(ranges, (m, 1))  # 归一化,normDataSet为结果矩阵
    return normDataSet, ranges, minVals


def datingClassTest():
    hoRatio = 0.1  # 将10%的样本取出当作测试样本
    datingDataMat, datingLabels = file2matrix('./Data/appointment/datingTestSet.txt')
    normMat, ranges, minVals = autoNorm(datingDataMat)
    m = normMat.shape[0]  # 归一化后的总样本数
    numTestVecs = int(m * hoRatio)  # 测试样本数量
    errorCount = 0.0  # 错误预测统计
    for i in range(numTestVecs):  # 对测试样本进行预测
        classifierResult = classify0(normMat[i, :], normMat[numTestVecs:m, :], datingLabels[numTestVecs:m], 3)
        print("the classifier came back with: %d, the real answer is: %d" % (classifierResult, datingLabels[i]))
        if (classifierResult != datingLabels[i]):
            errorCount += 1.0
    print("the total error rate is: %f" % (errorCount / float(numTestVecs)))


def classifyPerson():  # 允许用户输入文本行命令并返回预测结果
    resultList = ['not at all', 'in small doses', 'in large doses']
    percentTats = float(input("percentage of time spent playing video games?"))
    ffMiles = float(input("frequent flier miles earned per year?"))
    iceCream = float(input("liters of ice cream consumed per year?"))
    datingDataMat, datingLabels = file2matrix('./Data/appointment/datingTestSet.txt')
    normMat, ranges, minVals = autoNorm(datingDataMat)
    inArr = np.array([ffMiles, percentTats, iceCream, ])
    classifierResult = classify0((inArr - minVals) / ranges, normMat, datingLabels, 3)
    print("You will probably like this person: %s" % resultList[classifierResult - 1])


if __name__ == '__main__':
    datingClassTest()
    classifyPerson()

关于kNN算法的理论证明,请参考李航老师的《统计学习方法》以及周志华老师的《机器学习》(西瓜书)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值