一周搞懂一个机器学习算法之最近邻和k近邻Nearest Neighbor&k-Nearest Neighbors

Nearest Neighbor&k-Nearest Neighbors

最近邻是一种十分简单的机器学习算法,既可以应用到分类中,也可以在回归问题中使用,是一种非监督学习方法。

  • 原理简介
  • 我的理解
  • 代码实现

k近邻原理简介

对于一个未知类别的样本(分类问题),通过计算找到与它最近的已知类别的样本,将这个已知样本的类别赋予未知样本。扩展到k近邻,就是找到k个与它距离最近的,将它们的类别赋予给这个未知样本。

我的理解

中国有句古话:“物以类聚,人以群分”,老古人多年前就已经悟到了k近邻算法的核心。k近邻算法就是根据未知样本周围的已知样本来进行判断的。k的值选取不同,分类判断的结果也不同。举例来说,小明在上高中,他的两个同桌都是差生,但是他的前后,以及前后的同桌都是好学生,那么用k近邻来判断时,当k=2时,小明就是一个差生(离两个同桌最近);而当k=8时(前后左右+四个斜边),由于除了俩同桌都是好学生,所以小明被分类为好学生(投票法决定,6>2)。在实际应用中,k值的拿捏很重要,太小,如取一,很可能误差极大(比如离它最近的刚好是一个噪声),太大,又可能仅仅是根据某一类的数目来判断,没有了“最近”的意义,所以一般使用gridsearchcv(网格搜索交叉验证)的方法来选择最优的k值。

那么如何来判断样本的距离呢,我们一般使用曼哈顿距离或者欧氏距离来判断。所谓曼哈顿距离,就是绝对轴距的总和,这样说可能不太明白,用公式写出来就一目了然了,假设有两个点P1和P2,它们在笛卡尔坐标系中的坐标为(x1,y1)和(x2,y2),那么这两点的曼哈顿距离为:

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值