【机器学习-01】scikit-learn中数据集的用法

目录

1、获取sklearn中的数据集

2、数据集的使用 

3、数据集的划分

4、sklearn中的数据集划分API


scikit-learn地址:scikit-learn中文社区

1、获取sklearn中的数据集

(1)获取小规模数据集,数据包含在datasets里:sklearn.datasets.load_name()             

(2)获取大规模数据集,需从网络上下载:sklearn.datasets.fetch_name(data_home=None)                 函数的第一个参数是data_home,表示数据下载的目录,不指定的话默认~/scikit_learn_data/

 举例:

  • sklearn.datasets.load_iris()
    加载并返回鸢尾花数据集

  • sklearn.datasets.load_boston()
    加载并返回波斯顿房价数据集

  • sklearn.datasets.fetch_20newsgroups(data=None, subset=‘train’)
    可以通过subset参数选择需要加载的数据集:‘train’、’test’、‘all’
    ‘train’:训练集,’test’:测试集,‘all’:全部

2、数据集的使用 

(1)load和fetch返回的数据类型为datasets.base.Bunch(与字典格式一样)

(2)按Ctrl后点击数据集名称,可以查看数据集中的键值对

  • data:特征数据数组,是[n_samples * n_features]的二维numpy.ndarry数组
  • target:标签数组,是n_samples的一维numpy.ndarry数组
  • target_names:标签名
  • DESCR:数据描述
  • feature_names:特征名,新闻数据,手写数字、回归数据集没有

(3) 两种获取键值对的方式:dict[‘‘key’’] = value 和 bunch.key = value

3、数据集的划分

(1)机器学习一般的数据集会划分为两个部分:

  • 训练数据:用于训练,构建模型
  • 测试数据:模型检验,评估模型是否有效

(2)划分比例:

  • 训练集:80%~70%
  • 测试集:20%~30%

 4、sklearn中的数据集划分API

              sklearn.model_selection.train_test_split(x,y,test.size,random_state) 

x :数据集的特征值,如iris.data

y: 数据集的标签值/目标值,如iris.target

test_size:测试集的大小,一般为float类型(如测试集占20%,则设置为0.2,默认为0.25)

random_state:随机数种子,不同的种子会造成不同的随机采样结果 , 相同的种子采样结果相同

return:训练集特征值 x_train,测试集特征值 x_test,训练集目标值 y_train,测试集目标值 y_test

注意:返回值的顺序是固定的;x和y为必须的参数,其余参数可以不进行设置

from sklearn.datasets import load_iris    #导入数据集
from sklearn.model_selection import train_test_split   #导入数据集划分API


def datasets_demo():
    """
    sklearn数据集使用
    :return:
    """
    # 获取数据集
    iris = load_iris()
    print("鸢尾花数据集:\n", iris)
    print("查看数据集描述:\n", iris["DESCR"]) #字典方式获取键值对
    print("查看特征值的名字:\n", iris.feature_names) #点属性方式获取键值对
    print("查看特征值:\n", iris.data, iris.data.shape)  # 150个样本

    # 数据集划分
    x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.2, random_state=22)
    print("训练集的特征值:\n", x_train, x_train.shape)   # 返回为150*0.8=120个样本
    return None

if __name__ == "__main__":
    datasets_demo()

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: 使用scikit-learn导入数据集的步骤如下: 1. 导入需要的数据集模块,例如: from sklearn.datasets import load_iris 2. 加载数据集,例如: iris = load_iris() 3. 查看数据集的特征和标签,例如: X = iris.data # 特征 y = iris.target # 标签 4. 对数据集进行划分,例如: from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=.3, random_state=42) 5. 对数据集进行预处理,例如: from sklearn.preprocessing import StandardScaler scaler = StandardScaler() X_train = scaler.fit_transform(X_train) X_test = scaler.transform(X_test) 6. 最后,使用导入的模型进行训练和预测。 ### 回答2: Scikit-learn是一个常用的Python机器学习库,可以用于导入、处理和建模。其,导入数据集是进行数据处理和建模的第一步,本文主要介绍如何使用Scikit-learn导入数据集Scikit-learn提供了多种导入数据集的方式,常见的有手动导入和使用内置数据集。下面我们分别进行介绍。 手动导入数据集的步骤如下: 1. 使用Python自带的csv库或Pandas库读取数据文件,例如读取csv文件: ```python import csv with open('data.csv', 'r') as f: reader = csv.reader(f) data = [row for row in reader] ``` 或者使用Pandas库读取: ```python import pandas as pd data = pd.read_csv('data.csv') ``` 2. 将数据集划分为特征矩阵和标签向量。特征矩阵包含了描述数据集每个样本的特征(或属性)的值,通常用二维数组表示。标签向量包含了与特征矩阵的每个样本相对应的目标变量或响应变量,通常用一维数组表示。 例如,假设数据集包含两个特征(或属性)和一个目标变量,那么可以将数据集划分为特征矩阵和标签向量: ```python import csv with open('data.csv', 'r') as f: reader = csv.reader(f) data = [row for row in reader] # 划分特征矩阵和标签向量 X = [[float(x) for x in row[:-1]] for row in data] y = [float(row[-1]) for row in data] ``` 或者使用Pandas库读取: ```python import pandas as pd data = pd.read_csv('data.csv') # 划分特征矩阵和标签向量 X = data.iloc[:, :-1].values y = data.iloc[:, -1].values ``` 使用内置数据集的步骤如下: Scikit-learn提供了多个内置数据集,可以方便地通过库函数导入。例如,可以使用load_iris函数导入鸢尾花数据集: ```python from sklearn.datasets import load_iris # 导入鸢尾花数据集 iris = load_iris() # 特征矩阵 X = iris.data # 标签向量 y = iris.target ``` 总结起来,使用Scikit-learn导入数据集的步骤包括:读取数据文件或使用内置数据集,划分特征矩阵和标签向量。 ### 回答3: scikit-learn 是一个数据科学工具包,提供了许多用于导入和处理数据集的方法。要使用 scikit-learn 导入数据集,可以按照以下步骤进行: 1. 首先,需要确定数据集的格式。scikit-learn 支持许多常见的数据格式,包括 CSV、JSON、Excel、SQLite 数据库等。具体选择哪种格式取决于数据集的大小和内容。 2. 接下来,可以使用 scikit-learn 的相应工具类来读取数据。例如,可以使用 pandas 库的 read_csv() 函数来读取 CSV 文件,或者使用 scikit-learn 的 load_iris() 函数来加载经典的鸢尾花数据集。 3. 读取数据后,通常需要进行数据清洗和预处理,以确保数据集能够适用于模型训练。这包括删除缺失值、对连续数据进行标准化或归一化等步骤。scikit-learn 提供了许多数据处理的工具类,例如 Imputer 类用于处理缺失值,StandardScaler 类用于对连续数据进行标准化等。 4. 最后,可以将处理后的数据集用于模型的训练和测试。scikit-learn 提供了许多常用的机器学习算法,并且对于每个算法也提供了相应的参数调整工具和评估方法,用户可以根据具体情况进行选择和使用。 综上所述,使用 scikit-learn 导入数据集的过程涉及到数据读取、清洗和预处理、模型训练和测试等多个步骤,这需要用户对于 scikit-learn 工具包有一定的了解和掌握。同时,也需要用户对于具体的数据集和问题进行分析和思考,以便能够选择合适的数据处理方法和模型算法。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值