Nearest Neighbor&k-Nearest Neighbors
最近邻是一种十分简单的机器学习算法,既可以应用到分类中,也可以在回归问题中使用,是一种非监督学习方法。
- 原理简介
- 我的理解
- 代码实现
k近邻原理简介
对于一个未知类别的样本(分类问题),通过计算找到与它最近的已知类别的样本,将这个已知样本的类别赋予未知样本。扩展到k近邻,就是找到k个与它距离最近的,将它们的类别赋予给这个未知样本。
我的理解
中国有句古话:“物以类聚,人以群分”,老古人多年前就已经悟到了k近邻算法的核心。k近邻算法就是根据未知样本周围的已知样本来进行判断的。k的值选取不同,分类判断的结果也不同。举例来说,小明在上高中,他的两个同桌都是差生,但是他的前后,以及前后的同桌都是好学生,那么用k近邻来判断时,当k=2时,小明就是一个差生(离两个同桌最近);而当k=8时(前后左右+四个斜边),由于除了俩同桌都是好学生,所以小明被分类为好学生(投票法决定,6>2)。在实际应用中,k值的拿捏很重要,太小,如取一,很可能误差极大(比如离它最近的刚好是一个噪声),太大,又可能仅仅是根据某一类的数目来判断,没有了“最近”的意义,所以一般使用gridsearchcv(网格搜索交叉验证)的方法来选择最优的k值。
那么如何来判断样本的距离呢,我们一般使用曼哈顿距离或者欧氏距离来判断。所谓曼哈顿距离,就是绝对轴距的总和,这样说可能不太明白,用公式写出来就一目了然了,假设有两个点P1和P2,它们在笛卡尔坐标系中的坐标为(x1,y1)和(x2,y2),那么这两点的曼哈顿距离为: