100天搞定机器学习|Day11 实现KNN

机器学习100天|Day1数据预处理

100天搞定机器学习|Day2简单线性回归分析

100天搞定机器学习|Day3多元线性回归

100天搞定机器学习|Day4-6 逻辑回归

100天搞定机器学习|Day7 K-NN

100天搞定机器学习|Day8 逻辑回归的数学原理

100天搞定机器学习|Day9-12 支持向量机

Day7,我们学习了K最近邻算法(k-NN),了解了其定义,如何工作,介绍了集中常用的距离和k值选择。Day11,通过一个案例实现该算法。

第一步:导入相关库import numpy as npimport matplotlib.pyplot as pltimport pandas as pd第二步:导入数据集

dataset = pd.readcsv('../datasets/SocialNetwork_Ads.csv')为了方便理解,这里我们只取Age年龄和EstimatedSalary估计工资作为特征

X = dataset.iloc[:, [2, 3]].valuesy = dataset.iloc[:, 4].values第三步:将数据划分成训练集和测试集

fromsklearn.modelselectionimport traintest_splitXtrain, Xtest, ytrain, ytest = traintestsplit(X, y, testsize =0.25, randomstate=0)第四步:特征缩放

from sklearn.preprocessing import StandardScalersc = StandardScaler()Xtrain = sc.fittransform(X_train)Xtest = sc.transform(Xtest)第五步:使用K-NN对训练集数据进行训练

从sklearn的neighbors类中导入KNeighborsClassifier学习器

from sklearn.neighbors import KNeighborsClassifier设置好相关的参数 n_neighbors =5(K值的选择,默认选择5)、 metric ='minkowski'(距离度量的选择,这里选择的是闵氏距离(默认参数))、 p = 2 (距离度量metric的附属参数,只用于闵氏距离和带权重闵氏距离中p值的选择,p=1为曼哈顿距离, p=2为欧式距离。默认为2)

classifier = KNeighborsClassifier(n_neighbors=5, metric ='minkowski', p =2)classifier.fit(Xtrain,ytrain)

KNeighborsClassifier(algorithm='auto',leaf_size=30, metric='minkowski',metricparams=None, njobs=1,n_neighbors=5, p=2,weights='uniform')第六步:对测试集进行预测ypred = classifier.predict(Xtest)第七步:生成混淆矩阵混淆矩阵可以对一个分类器性能进行分析,由此可以计算出许多指标,例如:ROC曲线、正确率等fromsklearn.metricsimport confusion_matrixcm = confusionmatrix(ytest, y_pred)print(cm)[[64 4][ 3 29]]print(classificationreport(ytest, y_pred))预测集中的0总共有68个,1总共有32个。 在这个混淆矩阵中,实际有68个0,但K-NN预测出有67(64 3)个0,其中有3个实际上是1。 同时K-NN预测出有33(4 29)个1,其中4个实际上是0。

数据下载链接:https://pan.baidu.com/s/1cPBt2DAF2NraOMhbk5-_pQ提取码:vl2g

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值