更多关于k近邻算法

更多关于k近邻算法

最大缺点:效率低下
如果训练集有m个样本,n个特征,则预测每一个新的数据需要O(m*n)
优化方式:使用树结构:KD-Tree,Ball-Tree

缺点2:预测结果高度数据相关
尽管理论上所有机器学习算法都是数据相关的。但是k近邻算法预测样本中一旦有两个错误的值,足以让最终的预测结果产生错误,哪怕在更高的范围里,在这个空间中有更多正确的样本

缺点3:预测结果不具有可解释性
只是找到了和要预测的样本距离比较近的样本,就说这个样本属于这个类别,但是该样本为什么属于该类别根本无从知晓

缺点4:维数灾难
随着维度的增加,“看似相近”的两个点之间的距离越来越大,k近邻算法非常依赖两个点之间的距离

1维0到1的距离:1
2维(0,0)到(1,1)的距离:1.414
3维(0,0,0)到(1,1,1)的距离:1.73
64维(0,0,…0)到(1,1,…1)的距离:8
10000维(0,0,…0)到(1,1,…1)的距离:100

解决方法:降维

机器学习流程回顾
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值