python机器学习-k近邻(KNN)算法实例

机器学习-k近邻(KNN)
本篇主要是自己复习和总结机器学习算法中最基础入门的——k近邻(KNN)算法,内容由网上百度与摘抄唐宇迪老师的讲义。

k近邻介绍

——K最近邻(k-Nearest Neighbor,KNN),k近邻算法可以应用于分类场景与回归场景,是一个理论上比较不成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。
——用官方的话来说,所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是上面所说的K个邻居), 这K个实例的多数属于某个类,就把该输入实例分类到这个类中。

: 看图举例:
这里写图片描述
图形中有2种已知的图形,分别是蓝色的方块和红色的三角,绿色的未知图形。通过K近邻算法去判断未知的绿色图形是什么,取决于它周围距离最近的图形。
比如把K近邻的近邻参数设置成3(图中实线圆圈),那么未知的绿色图形就是三角。如果近邻参数设置成5(图中虚线圆圈),那么未知的绿色图形就是方块。

所以在K近邻算法中,设置近邻参数是会决定最后预测的结果准确性,那么怎么设置参数是多少呢?这个后面会给大家再进行介绍,本篇K近邻算法的实现主要是通过经典的机器学习库(sklearn)来完成。

K近邻在sklearn里面的API为sklearn.neighbors,在该模块下由细分了13个小的模块。本文主要使用neighbors.KNeighborsRegressor基于k-最近邻居的回归来进行说明官方教程链接

类型 描述
neighbors.BallTree BallTree用于快速广义N点问题
neighbors.DistanceMetric DistanceMetric类
neighbors.KDTree KDTree用于快速广义N点问题
neighbors.KernelDensity([bandwidth, …]) 核密度估计
neighbors.KNeighborsClassifier([…]) 实现k近邻的分类器投票
neighbors.KNeighborsRegressor([n_neighbors, …]) 基于k-最近邻居的回归
neighbors.LocalOutlierFactor([n_neighbors, …]) 使用局部异常因子(LOF)的无监督异常值检测
neighbors.RadiusNeighborsClassifier([…]) 在给定半径内的邻居之间实施投票的分类器
neighbors.RadiusNeighborsRegressor([radius, …]) 基于固定半径内的邻居的回归
neighbors.NearestCentroid([metric, …]) 最近的质心分类器
neighbors.NearestNeighbors([n_neighbors, …]) 用于实现邻居搜索的无监督学习者
neighbors.kneighbors_graph(X, n_neighbors[, …]) 计算X中点的k-邻居的(加权)图
neighbors.radius_neighbors_graph(X, radius) 计算X中各点的邻居(加权)图

k近邻参数

sklearn.neighbors.KNeighborsRegressor默认参数:

sklearn.neighbors.KNeighborsRegressor(n_neighbors = 5,weights =‘uniform’,algorithm =‘auto’,leaf_size = 30,p = 2,metric

  • 10
    点赞
  • 56
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
K近邻算法是一种简单易用的机器学习算法,它可以用于分类和回归问题。在分类问题中,K近邻算法通过计算待分类样本与训练集中每个样本的距离,找到距离待分类样本最近的K个样本,然后根据这K个样本的类别进行投票,将待分类样本归为票数最多的类别。在回归问题中,K近邻算法通过计算待预测样本与训练集中每个样本的距离,找到距离待预测样本最近的K个样本,然后根据这K个样本的值进行加权平均,得到待预测样本的预测值。 下面是一个使用K近邻算法进行乳腺癌检测分类的示例代码: ```python import pandas as pd from sklearn.model_selection import train_test_split from sklearn.neighbors import KNeighborsClassifier from sklearn.metrics import accuracy_score # 读取数据集 data = pd.read_csv("breast_cancer.csv") # 将类别变量转换为数值变量 data['diagnosis'] = data['diagnosis'].map({'M': 1, 'B': 0}) # 将特征变量和类别变量分开 X = data.drop(['diagnosis'], axis=1) y = data['diagnosis'] # 将数据集分为训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) # 创建K近邻分类器 knn = KNeighborsClassifier(n_neighbors=5) # 训练K近邻分类器 knn.fit(X_train, y_train) # 在测试集上进行预测 y_pred = knn.predict(X_test) # 计算预测准确率 accuracy = accuracy_score(y_test, y_pred) print("预测准确率:", accuracy) ``` 上述代码使用了sklearn库中的KNeighborsClassifier类来创建K近邻分类器,并使用accuracy_score函数计算预测准确率。需要注意的是,K近邻算法对数据的缩放敏感,因此在使用K近邻算法之前,通常需要对数据进行缩放处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值