knn

算法概述

knn(k-nearest neighbor classification)k近邻分类算法,应该是机器学习中最简单的算法,它是从训练集中找到和新数据最接近的k条记录,然后根据他们的主要分类来决定新数据的类别。该算法涉及3个主要因素:训练集距离或相似的衡量k的大小

计算步骤

  • 算距离:给定测试对象,计算它与训练集中的每个对象的距离
  • 找邻居:圈定距离最近的k个训练对象,作为测试对象的近邻
  • 做分类:根据这k个近邻归属的主要类别,来对测试对象分类

源码(python)

from numpy import *
import operator

# 创建数据集
def createDataSet():
    group = array([[1, 1.1], [1, 1], [0, 0], [0, 0.1]])
    labels = ['A', 'A', 'B', 'B']
    return group, labels

# 分类
# inX: 待分类向量(1*N)
# dataSet: 已知的m个向量(M*N)
# labels: 已知m个向量的标签(1*M)
# k: 选取的前k个邻居进行比较(k为奇数)
def classify0(inX, dataSet, labels, k):
    dataSetSize = dataSet.shape[0]
    diffMat = tile(inX, (dataSetSize, 1)) - dataSet
    sqDiffMat = diffMat**2
    sqDistances = sqDiffMat.sum(axis=1)
    distances = sqDistances**0.5
    sortedDistIndicies = distances.argsort()

    classCount = { }
    for i in range(k):
        print sortedDistIndicies[i]
        voteIlabel = labels[sortedDistIndicies[i]]
        classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1
    sortedClassCount = sorted(classCount.iteritems(), key=operator.itemgetter(1), reverse=True)
    return sortedClassCount[0][0]

# test
group, labels = kNN.createDataSet()
result = kNN.classify0([0, 0], group, labels, 3)
print result

参考

数据挖掘十大算法-knn
源码来自书籍 机器学习实战

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值