sklearn-KNN算法

knn算法的原理:

通过计算预测数据与每个训练数据的距离,选出k个数据最近的数据作为参考,在选出的数据中,由target类分类,个数最多的类作为该次分类的结果。

knn算法的问题:当k值较小的时候,例如1 。这样在对于数据的评估的时候,可能受到异常值的影响,最后产生错误的结果。当k值较大的时候,假如已经超出某一个类别的数量,同样在排序的时候,其他的类别所占的比例会升高,导致结果错误

knn算法的API:

from sklearn.neighbors import KNeighborsClassifier

kNeighborsClassifier就是一个评估器,继承与estimator类

下面是对 iris 数据集的分类效果

from sklearn.datasets import load_iris
from sklearn.neighbors import KNeighborsClassifier
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler

iris = load_iris()
x_train, x_test, y_train, y_test = train_test_split(
    iris.data, iris.target, random_state=0, test_size=0.2)

trans = StandardScaler()
x_train = trans.fit_transform(x_train)
# 注意这里,为了使得数据更加准确,对训练集做的操作应该和测试集相同,所以方差和平均数不改变
x_test = trans.transform(x_test)

estimator = KNeighborsClassifier(n_neighbors=10)
estimator.fit(x_train, y_train)

print(f"测试的结果为:{estimator.score(x_test, y_test) * 100}%")
测试的结果为:100.0%

可以看到数据都被正确的分类了,这是因为k值的设定。当我把k值设为3的时候,结果变成了96.7%。

总结:knn算法

1.优点:简单,易于理解,易于实现,无需训练

2.缺点

        1) 懒惰算法,对测试样本分类时的计算量大,内存开销较大

        2)必须指定k值,对于k的选取不当会导致分类的精度得不到保证

使用场景:小数据的场景,几千到几万的数据,左测试用 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值