K近邻算法-----liuyubobobo之机器学习
我们已经知道的数据是分布在特征空间中的,为了可视化方便,我们放在二维空间里面。
恶性肿瘤用蓝色来表示,良性用红色表示。
K近邻算法:
首先取一个K值,选取离我们的目标点最近的三个点(因为k=3)----K近邻算法的本质:两个样本相似的话,我们就说他们属于同一个样本。相似性是通过样本在特征空间中的距离来表示的,
K近邻算法可以解决分类问题,也可以解决回归问题。
代码实现
![在这里插入图片描述](https://img-blog.csdnimg.cn/2021031815263553.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L20wXzQ5MjM0OTIx,size_16,color_FFFFFF,t_70
求的新样本点和原来样本点中每一个样本点之间的距离 放在distance中。
np.argsort():对一个数组进行排序,返回的是相应的排序后结果的索引。