机器学习python实践(二)鸢尾花分类

该文介绍了使用Python和机器学习库进行分类的一个项目,基于鸢尾花数据集,涉及数据导入、数据平衡、可视化、模型评估(包括LogisticRegression,LDA,KNN,CART,NB,SVM等)以及预测过程。
摘要由CSDN通过智能技术生成

参照《机器学习python实践这本书》,利用鸢尾花数据集实现一个分类的小项目

(数据集可自行浏览器搜索下载,我是网上直接搜下载的)

调包

import pandas as pd
import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split, KFold, cross_val_score
from sklearn.linear_model import LogisticRegression
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis
from sklearn.tree import DecisionTreeClassifier
from sklearn.neighbors import KNeighborsClassifier
from sklearn.naive_bayes import GaussianNB
from sklearn.svm import SVC
from sklearn.metrics import classification_report, confusion_matrix,accuracy_score

1. 导入数据

#1.导入数据
df=pd.read_csv('iris.csv')

2.数据概述

#查看数据维度,我用的spyder变量那里可以直接查看
#df.shape
#df.head()
#df.info()
#df.describe()可以查看数据的统计描述信息,中位数之类的

#查看数据分类分布情况
print(df.groupby('Species').size())

查看数据平衡度在日常建模时常常忽略。数据分布不平衡可能会影响模型的准确度。

调整数据平衡有以下几个方法:

1)扩大数据样本

2)数据重新抽样(我觉得这是针对抽样数据)

3)尝试生成人工样本

4)异常检测和变化检测

3. 数据可视化

#3.数据可视化
#箱线图
df.plot(kind='box',subplots=True,layout=(2,2),sharex=False,sharey=False)
plt.show()

#直方图
df.hist()
plt.show

#散点矩阵图,可以查看不同特征属性之间的关系。
pd.plotting.scatter_matrix(df)
plt.show()

4.模型创建,评估算法

评估六种不同的算法:(前两个是线性算法,后四是非线性算法)

LR;线性判别分析LDA;K近邻KNN;分类与回归树CART;贝叶斯分类器BN;SVM

#4.评估算法
#训练集测试集划分
array=df.values
X=array[:,0:4]
y=array[:,4]
X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2,random_state=7)

#算法审查
models={}
models['LR']=LogisticRegression()
models['LDA']=LinearDiscriminantAnalysis()
models['KNN']=KNeighborsClassifier()
models['CART']=DecisionTreeClassifier()
models['NB']=GaussianNB()
models['SVM']=SVC()

#评估算法
results=[]
for key in models:
    kfold=KFold(n_splits=10,random_state=7,shuffle=True)
    cv_results=cross_val_score(models[key],X_train,y_train,cv=kfold,scoring='accuracy')
    results.append(cv_results)
    print('%s:%f(%f)'%(key,cv_results.mean(),cv_results.std()))

#箱线图比较算法
fig=plt.figure()
fig.suptitle('Algorithm Comparison')
ax=fig.add_subplot(111)
plt.boxplot(results)
ax.set_xticklabels(models.keys())
plt.show()

输出结果

 

5. 预测

#5.预测
svm=SVC()
svm.fit(X=X_train,y=y_train)
y_pre=svm.predict(X_test)

print(accuracy_score(y_test,y_pre))
print(confusion_matrix(y_test,y_pre))
print(classification_report(y_test, y_pre))

内容参考《机器学习python实践》魏贞原, 2018.

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值