kNN

knn邻近算法(不完善的博客)

我个人觉得邻近就像是一种“物以类聚,人以群分”的思想

我们给未知数据分类,拿一个已知分类的样本空间去匹对,找和这个未知数据相似的数据,认为他们是一个类,就将这个数据分为这个类

但是划分这个类不是一个数据可以划分出来的,所有我们用一个大小为K的子集来标识和这个数据相似的样本数据,这样缩小了特殊样本对分类的影响,同时也扩大了在样本空间占比重的数据对分类的影响,所以如何选取K值是一个问题?

《机器学习实战》书上衡量数据与样本的相似度的方式是计算欧氏距离,但是我在想是不是用不同的距离公式也可以计算相似度?不同的相似度计算方式是不是也会在某种程度上影响数据的分类


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值