pythonAI三部曲 —— 量化篇

我们继续上文的内容,上文请见(32条消息) pythonAI三部曲 —— 准备篇_BC_淡泊明志的博客-CSDN博客

这篇主要解决信息可视化,也可作为信息可视化的参考。


正文

步骤1:准备数据

首先,我们需要导入Iris数据集。Scikit-learn库包含了各种常用的数据集,可以直接从这些数据集中获取数据。运行以下代码导入数据集:

from sklearn import datasets
import numpy as np iris = datasets.load_iris()
#加载数据集 
X = iris.data[:[2, 3]]
y = iris.target

在这里,我们只取数据集中的两个特征(宽度和长度),方便可视化展示。同时,将类别存储在y中。

步骤2:数据可视化

为了更好地理解数据,通常需要对数据进行可视化。运行以下代码生成数据的散点图:

import matplotlib.pyplot as plt
plt.scatter(X[:50,0], X[:50,1], color='red', marker='o', label='setosa') 

plt.scatter(X[50:100,0], X[50:100,1], color='blue', marker='x', label='versicolor') 

plt.scatter(X[100,0], X[100:1], color='green', marker='+', label='virginica') 

plt.xlabel('petal length') plt.ylabel('petal width') plt.legend(loc='upper left') 

plt.show()

在这里,我们将数据根据类别分成三类,分别用红色、蓝色和绿色的散点表示,展示数据之间的关系。

步骤3:划分训练和测试数据集

现在,我们要将数据划分为训练和测试数据。训练数据将用来训练AI模型,而我们将使用测试数据来评估模型的性能。

from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split( X, y, test_size=0.3, random_state=0)

步骤4:特征缩放

在训练之前,我们需要将数据归一化,以确保不同的特征在数据训练过程中得到相同的重视。我们将使用Scikit-learn库中的StandardScaler函数。

from sklearn.preprocessing import StandardScaler 
sc = StandardScaler() 
sc.fit(X_train) 
X_train_std = sc.transform(X_train) 
X_test_std = sc.transform(X_test)

结语

下一章我们将正式进入AI的特征分析部分,请见下文与此处

 点击专栏目录

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值