机器学习 之 K近邻(KNN),各种距离(范数)

本文探讨k-最近邻(kNN)算法中k的选择原则,介绍如何通过交叉验证确定最佳k值,并解析最近邻判断的方法,包括欧式范数和归一化技巧。重点讲解kNN的时间复杂度、空间复杂度,以及其作为非参数模型的特点和适用场景。
摘要由CSDN通过智能技术生成

思想是在训练数据集中找到与该实例最邻近的K个实例,这K个实例的多数属于某个类,就把该输入实例分类到这个类中(这就类似于现实生活中少数服从多数的思想)。

但k怎么确定的,k为多少效果最好呢?(其实是超参数,不能用数据进行调整的,只能用交叉验证推算)

如果我们选取较小的k值,那么就会意味着我们的整体模型会变得复杂,容易发生过拟合!(容易被噪声占据优势)

如果我们选取较大的k值,就相当于用较大邻域中的训练数据进行预测,这时与输入实例较远的(不相似)训练实例也会对预测起作用,使预测发生错误,k值的增大意味着整体模型变得简单。不解释。

k值既不能过大,也不能过小,要恰当好。通常采取交叉验证法来选取最优的k值。(也就是说,选取k值很重要的关键是实验调参,类似于神经网络选取多少层这种,通过调整超参数来得到一个较好的结果)

所谓的最近邻又是如何来判断给定呢?
这个就是各种距离,两个点之间的距离还是很好计算的。

而且还有归一化的问题,这个不难( x − a b − a \frac{x-a}{b-a} b

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值