kNN(k-NearestNeighbor,K最近邻)分类算法

作为最简单又硬核的分类算法,kNN常常是我们小白们接触deep learning的第一步
所谓kNN,简单来讲就是最靠近该类的K个“邻居”(neighbor),图片来理解就是
图片摘自百度图中可以清楚看出K=5
而在特殊例子中,即K取1时,我们可以简单得推导出kNN算法将距离测试数据最近的“邻居”的类判断为测试数据的类。犹如我前面所说的,非常简单又硬核对不对?
如何定义“最近”呢? 在很多时候我们是用欧式距离来计算的,所谓欧式距离其实就是两点间的距离计算公式,在我们初中就已经学过了,下图来源百度百科
在这里插入图片描述最后,在最近的K个数据中寻找数量最多的那一类,我们就判断那一类就是我们测试数据的类。
整个过程非常简单明了,但是我们得思考一下,这个算法的缺点是什么?
1.每一次测试,我们必须要和所有数据进行比较,最后再排序得出最近的K个值,虽然没有训练过程,但是测试时间极其缓慢。
2.所有的数据的种类我们都要用标签记录,空间占用较大。
3.准确度低下。

虽然问题2可以采用哈夫曼树来进行数据的压缩处理,但是1、3对于简单粗暴的kNN来说还真的没有什么好的处理办法。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值