机器学习框架sklearn之K近邻算法

原理

K Nearest Neighbor算法又叫KNN算法,这个算法是机器学习里面一个比较经典的算法

  • 定义

    如果一个样本在特征空间中的K个最相似(即特征空间中最邻近)的样本大多数属于某一个类别,则该样本也属于这个类别。

  • 距离公式

    两个样本的距离可以通过如下公式计算,又叫欧氏距离
    比如说,点a(a1,a2,a3)和点b(b1,b2,b3)的距离为:
    在这里插入图片描述
    其他的距离公式:

    曼哈顿距离:绝对值距离

注:

K值取的过小,容易受到异常点的影响

K值取的过大,容易受到样本不均衡的影响

API

sklearn.neighbors.KNeighborsClassifier(n_neighbors=5,algorithm='auto')

-n_neighbors:int,可选(默认=5),n_neighbors查询默认使用的邻居数
-algorithm:{'auto','ball_tree','kd_tree','brute'},可选用于计算最近邻居的算法:'ball_tree'将会使用BallTree,'kd_tree'将使用KDTree,'auto'将尝试根据传递给fit方法的值来决定最合适的算法

使用

from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.neighbors import KNeighborsClassifier
def knn_demo():
    #1.获取数据
    iris=load_iris()
    #2.划分数据集
    x_train,x_test,y_train,y_test=train_test_split(iris.data,iris.target,random_state=6)
    #3.特征工程:标准化
    transfer=StandardScaler()
    x_train=transfer.fit_transform(x_train)
    x_test=transfer.transform(x_test)
    #4.KNN算法预估器
    estimator=KNeighborsClassifier(n_neighbors=3)
    estimator.fit(x_train,y_train)
    # 5.评估模型
    #方法一
    y_predict=estimator.predict(x_test)
    print("直接比对真实值和预测值:\n",y_test==y_predict)
    # 方法二
    score=estimator.score(x_test,y_test)
    print("准确率为:\n",score)
    return None

总结

  • 优点

    简单、易于理解、易于实现、无需训练

  • 缺点

    懒惰算法,对测试样本分类时的计算量大,内存开销大

    必须指定K值,K值选择不当则分类精度不能保证

  • 使用场景

    小数据场景,几千~几万样本,具体场景具体业务去测试

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

疯狂的小强呀

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值