k近邻(KNN)的Python实现

K近邻算法:


复杂度:训练时间复杂度为0,如果训练集中文档总数为N特征维度为D则暴力做法分类时间复杂度为O(DN)。可以用K-D Tree或Ball-Tree优化成O(Dlog(N))。
优点:精度高、对异常值不敏感、无数据输入假定。
缺点:计算复杂度高、空间复杂度高。


K近邻算法原理:

输入一个新的没有标签的数据后,将新数据的每个特征值与训练样本集中数据的对应的特征进行比较,选择训练样本数据集中前K个最相似的数据,最后,选择K个最相似数据中出现次数最多的分类,作为新数据的分类。


k值设定:

k太小,分类结果易受噪声点影响;k太大,近邻中又可能包含太多的其它类别的点。(对距离加权,可以降低k值设定的影响)
k值通常是采用交叉检验来确定(以k=1为基准)
经验规则:k一般取3,上限为训练样本数的平方根。


kNN.py:


import numpy as np


# 使用KNN分类
def kNNClassify(newInput, dataSet, labels, k):
    numSamples = len(dataSet)

    # 计算欧拉距离
    diff = np.tile(newInput, (numSamples, 1)) - dataSet
    squaredDiff = diff ** 2
    squaredDist = np.sum(squaredDiff, axis=1)
    distance = squaredDist ** 0.5

    # 距离排序
    sortedDistIndices = np.argsort(distance)

    # 计算前k个出现的次数
    classCount = {}
    for i in range(k):
        voteLabel = labels[sortedDistIndices[i]]
        classCount[voteLabel] = classCount.get(voteLabel, 0) + 1

    # 找出最大的返回
    maxCount = 0
    for key, value in classCount.items():
        if value > maxCount:
            maxCount = value
            maxIndex = key

    return maxIndex


def main():
    # 创建数据集
    def createDataSet():
        group = [[1.0, 0.9], [1.0, 1.0], [0.1, 0.2], [0.0, 0.1]]
        labels = ['A', 'A', 'B', 'B']
        return group, labels

    dataSet, labels = createDataSet()

    testX = [1.2, 1.0]
    outputLabel = kNNClassify(testX, dataSet, labels, 3)
    print("测试数据:", testX, "被分类到: ", outputLabel)

    testX = [0.1, 0.3]
    outputLabel = kNNClassify(testX, dataSet, labels, 3)
    print("测试数据:", testX, "被分类到: ", outputLabel)

if __name__ == '__main__':
    exit(main())


输出结果:


测试数据: [1.2, 1.0] 被分类到:  A
测试数据: [0.1, 0.3] 被分类到:  B


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值