从零开始-Machine Learning学习笔记(20)-kNN(k-Nearset Neignbor)学习笔记

  k-近邻算法是我见过最为简单却很实用的算法,他没有复杂的推导公式,没有长时间的训练过程,数据集即是模型。
  在周志华老师的西瓜书中,是这么来描述他的:

k-近邻是一种常用的监督学习方法,其工作机制非常简单:从给定测试样本,基于某种距离度量来找出数据集中与其最靠近的k个样本,然后基于这k个邻居来进行预测。

在分类问题中,可以根据“投票法”来选择这k个邻居中出现最多的类别作为预测结果;在回归问题中则可以采取一种“平均法”或者“加权平均法”来作为预测结果。
  它最大的特点就是没有显式的训练过程,所以我们称这种没有显式训练的学习为“懒惰学习”(Lazy learning),而那些需要提前训练的学习我们称为“急切学习”(Eager learning)

  所以我们很清楚了,就是找出数据集中与测试样本最近的k个样本,并统计k个样本中出现次数最多的label作为输出。这种方法看似简单,但是在数据量很大的时候,kNN往往能取得不错的效果,且计算时间短。它的主要特点为:

优点: 精度高、对异常值不敏感、无输入数据假定
缺点: 计算复杂度高、空间复杂度高(要与所有的样本计算距离)
适用于数值型和标称型数据

其流程可以表示为:
(1) 计算测试样本与已知类别的样本的距离
(2) 按照距离递增次序排序
(3) 选取与当前样本距离最小的k个样本
(4) 确定前k个样本所在类别出现的频率
(5) 返回前k个样本中出现频次最高的类别当作当前样本的预测分类
其代码如下:

from numpy import *
def knn(test, dataSet, labels, k):
	'''
	k-近邻算法
	参数:
	  -test:待分类样本
	  -dataSet:数据集
	  -labels:数据集对应的标签
	  -k:邻居数量
	返回:
	  -预测的分类
	'''
    dataSetSize = dataSet.shape[0] # 获取数据集样本数量
    diffMat = tile(inX, (dataSetSize,1)) - dataSet # 测试样本与数据集中每一个样本对应相减
    sqDiffMat = diffMat**2  # 平方
    sqDistances = sqDiffMat.sum(axis=1)  # 再按行求和
    distances = sqDistances**0.5 # 再开方得到样本间的欧式距离
    sortedDistIndicies = distances.argsort() # 对距离进排序并返回序号    
    classCount={}          
    for i in range(k): # 统计前k个样本中各label的数量
        voteIlabel = labels[sortedDistIndicies[i]]
        classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
    sortedClassCount = sorted(classCount.iteritems(), key=operator.itemgetter(1), reverse=True)
    return sortedClassCount[0][0] # 返回数量最多的label

在sklearn中的使用也很简单:

from sklearn.neighbors import KNeighborsClassifier
model = KNeighborsClassifier(n_neighbors=param)  # param表示邻居的数量
model.fit(X,y)  # 训练,其实没有训练X是数据集,y是label
y_test = model.predict(x_test) # 预测

通常所说的调包怪是也!导入模型->fit->predict(摊手~)

最后值得注意的是:

对于k的取值一般没有什么好的办法,通过实验来确定,选择正确率最高的k即可,一般来说k的取值不超过20.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
KNN(K-Nearest Neighbor)和K-Means是两种不同的机器学习算法,它们在问题类型、应用场景和算法过程上有所区别。 首先,KNN是一种监督学习算法,用于解决分类问题。它通过计算未知样本与最近的K个已知样本之间的距离,来确定未知样本所属的类别。KNN需要有标签的训练数据来进行分类。 而K-Means是一种非监督学习算法,用于解决聚类问题。它通过人为选定的K个聚类中心,计算样本与聚类中心之间的距离,将样本分配到离其最近的聚类中心所代表的类簇中。然后根据类簇内的所有点重新计算类簇的中心点,迭代进行分配和更新,直至类簇中心点不再变化或达到指定的迭代次数。 此外,KNN没有明显的训练过程,而K-Means需要迭代计算类簇中心点。KNN是根据最近的K个样本来判断未知样本的类别,而K-Means是根据样本与聚类中心的距离来进行聚类。 总结来说,KNN是一种用于分类问题的监督学习算法,而K-Means是一种用于聚类问题的非监督学习算法。它们在问题类型、应用场景和算法过程上有所区别。 #### 引用[.reference_title] - *1* [KNN(K近邻)和K-means(聚类)的区别](https://blog.csdn.net/weixin_43804047/article/details/128424463)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [面试回答:KNN和K-Means的区别?](https://blog.csdn.net/qq_29168809/article/details/104221199)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [KNN和kmeans算法的区别](https://blog.csdn.net/skyllerone/article/details/126954351)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值