序
我们继续上文的内容,上文请见(32条消息) pythonAI三部曲 —— 准备篇_BC_淡泊明志的博客-CSDN博客
这篇主要解决信息可视化,也可作为信息可视化的参考。
正文
步骤1:准备数据
首先,我们需要导入Iris数据集。Scikit-learn库包含了各种常用的数据集,可以直接从这些数据集中获取数据。运行以下代码导入数据集:
from sklearn import datasets
import numpy as np iris = datasets.load_iris()
#加载数据集
X = iris.data[:[2, 3]]
y = iris.target
在这里,我们只取数据集中的两个特征(宽度和长度),方便可视化展示。同时,将类别存储在y中。
步骤2:数据可视化
为了更好地理解数据,通常需要对数据进行可视化。运行以下代码生成数据的散点图:
import matplotlib.pyplot as plt
plt.scatter(X[:50,0], X[:50,1], color='red', marker='o', label='setosa')
plt.scatter(X[50:100,0], X[50:100,1], color='blue', marker='x', label='versicolor')
plt.scatter(X[100,0], X[100:1], color='green', marker='+', label='virginica')
plt.xlabel('petal length') plt.ylabel('petal width') plt.legend(loc='upper left')
plt.show()
在这里,我们将数据根据类别分成三类,分别用红色、蓝色和绿色的散点表示,展示数据之间的关系。
步骤3:划分训练和测试数据集
现在,我们要将数据划分为训练和测试数据。训练数据将用来训练AI模型,而我们将使用测试数据来评估模型的性能。
from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split( X, y, test_size=0.3, random_state=0)
步骤4:特征缩放
在训练之前,我们需要将数据归一化,以确保不同的特征在数据训练过程中得到相同的重视。我们将使用Scikit-learn库中的StandardScaler函数。
from sklearn.preprocessing import StandardScaler
sc = StandardScaler()
sc.fit(X_train)
X_train_std = sc.transform(X_train)
X_test_std = sc.transform(X_test)
结语
下一章我们将正式进入AI的特征分析部分,请见下文与此处
点击专栏目录