K-临近算法学习总结

1算法简介:

      机器学习算法中最简单的基本分类与回归算法。工作原理:训练样本集的每一个数据都有对应的标签。输入没有标签的新数据后,将新的数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本最相似数据(最近邻)的分类标签。而提取时,会选择距离排序,选择最相近的前k个数据中出现最多的标签,这个标签,就是新数据的标签。

算法步骤:

  1. 计算已知类别数据集中的点与当前点之间的距离;
  2. 按照距离递增次序排序;
  3. 选取与当前点距离最小的k个点;
  4. 确定前k个点所在类别的出现频率;
  5. 返回前k个点所出现频率最高的类别作为当前点的预测分类

2代码实现:

2.1.准备数据集--数据处理(使用python导入数据,这里需要用到numpy,安装遇坑参见numpy填坑日记

    为了更直观验证,选取简单数据坐标轴上的位置极易判断:

import numpy as np
import operator
def createDataSet():
    #四组二维特征
    group = np.array([[0,1],[0.3,3],[3.1,0],[3.2,1]])
    #四组特征的标签
    labels = ['a','a','b','b']
    return group, labels

2.2 K-临近算法(分类器)

         --计算待测点与每一个样本点的距离,根据距离从小到大进行排序,选出距离最近的k个点中出现次数最多的标签,作为待测点的标签:

Parameters:
    inX - 待分类的数据
    dataSet - 训练集
    labes - 分类标签
    k - kNN算法参数,选择距离最小的k个点
Returns:
    sortedClassCount[0][0] - 分类结果

def classify0(inX, dataSet, labels, k):
    dataSetSize = dataSet.shape[0]
    #在列向量方向上重复inX共1次(横向),行向量方向上重复inX共dataSetSize次(纵向)
    diffMat = np.tile(inX, (dataSetSize, 1)) - dataSet
    sqDiffMat = diffMat**2
    #sum(1)行相加
    sqDistances = sqDiffMat.sum(axis=1)
    distances = sqDistances**0.5
    #返回distances中元素从小到大排序后的索引值
    sortedDistIndices = distances.argsort()
    classCount = {}
    for i in range(k):
        voteIlabel = labels[sortedDistIndices[i]]
        #计算类别次数
        classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
    #reverse降序排序字典
    sortedClassCount = sorted(classCount.items(),key=operator.itemgetter(1),reverse=True)
    #返回次数最多的类别,即所要分类的类别
    return sortedClassCount[0][0]
2.3 测试分类器是否构建成功
if __name__ == '__main__':
    #创建数据集
    group, labels = createDataSet()
    #测试集
    test = [4,0]
    test_class = classify0(test, group, labels, 3)
    print(test_class)

 运行结果如下:


结果显示与预期预测的类别一致。





  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
关联规则-k临近算法是一种常用于数据挖掘任务的算法,用于发现数据集中的关联规则。在使用关联规则-k临近算法时,为了提高算法的效率和准确度,可以采用负荷分解方法。 负荷分解方法是指将数据集分解为多个子集,然后将每个子集分配到不同的计算节点进行并行计算。在关联规则-k临近算法中,可以使用负荷分解方法将计算任务分解到多个计算节点上,以减少计算时间和提高效率。 具体而言,可以按照以下步骤进行负荷分解: 1. 将数据集均匀地划分为多个子集。可以使用数据分片的方法,将数据集按照某种标准进行分片,确保每个子集中的数据量大致相等。 2. 将每个子集分配给不同的计算节点。可以通过调度算法,将每个子集分配给不同的计算节点进行处理。可以根据计算节点的性能和负载情况进行任务调度,以确保各个计算节点的负载均衡。 3. 在每个计算节点上,使用关联规则-k临近算法对子集进行关联规则挖掘。在每个计算节点上,对分配到的子集使用关联规则-k临近算法进行计算,发现数据集中的关联规则。 4. 合并计算结果。在每个计算节点完成计算后,将计算得到的关联规则合并起来,得到最终的关联规则集合。 通过负荷分解方法,可以充分利用多个计算节点的并行计算能力,提高关联规则-k临近算法的计算效率。负荷分解方法能够将计算任务分解成多个子任务进行并行计算,并且在计算节点之间进行任务调度,以提高整体的计算速度和效率。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值