Python机器学习及实践从零开始通往Kaggle竞赛之路之第二章 第四个程序使用k-nearst neighbors对iris数据集进行分类

前言: 本节主要测试K最近邻(k-nearst neighbors) 对iris数据集分类的效果,K最近邻算法的思想是在样本未知的情况下,我首先选择距离测试集最近的K个样本,这K个样本中哪个类别最多,我们就选择该标签归给哪个数据集。代码的流程图是

1、加载数据集,包括将数据集划分成测试集和训练集

2、对数据集进行预处理,包括StandardScaler()标准化操作

3、调用K近邻法,使用knn.fit()对数据集进行训练

4:输出训练结果 , KNN.score()

 

代码实现:

# -*- coding: utf-8 -*-
# @Time    : 2019/4/8 0:09
# @Author  : YYLin
# @Email   : 854280599@qq.com
# @File    : Four-Program-KNeighbors-Iris.py
# 从sklearn.datasets 导入 iris数据加载器
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.neighbors import KNeighborsClassifier # K节临近法
from sklearn.metrics import classification_report

iris = load_iris()
print(iris.data.shape)

# 从使用train_test_split,利用随机种子random_state采样25%的数据作为测试集。
X_train, X_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.25, random_state=33)

# 对训练和测试的特征数据进行标准化。
ss = StandardScaler()
X_train = ss.fit_transform(X_train)
X_test = ss.transform(X_test)

# 使用K近邻分类器对测试数据进行类别预测,预测结果储存在变量y_predict中。
knc = KNeighborsClassifier()
knc.fit(X_train, y_train)
y_predict = knc.predict(X_test)

# 使用模型自带的评估函数进行准确性测评。
print('The accuracy of K-Nearest Neighbor Classifier is', knc.score(X_test, y_test))
print(classification_report(y_test, y_predict, target_names=iris.target_names))

实验结果:

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值