Python3数据分析与挖掘建模(14)特征工程、数据清洗、特征预处理

1. 特征工程概念

1.1 特征工程概述

特征工程是机器学习中至关重要的步骤,它涉及到特征的选择、获取、处理和监控。下面是对每个方面的详细解释:

(1)特征使用:
   - 数据选择:在特征工程中,需要选择与问题相关的数据集。这意味着根据问题的定义和目标,选择包含相关特征的数据集。
   - 可用性:在使用特征时,需要确保特征的可用性和可访问性。这包括确保数据集的完整性、准确性和可信度。

(2)特征获取:
   - 特征来源:特征可以来自多个来源,例如传感器数据、数据库、日志文件等。在特征工程中,需要确定特征来自哪些来源,并进行相应的数据提取和集成。
   - 特征存储:获取的特征需要进行存储,以便后续的特征处理和建模。这可能涉及将特征存储在数据库中、保存为文件或加载到内存中的数据结构中。

(3)特征处理:
   - 数据清洗:在特征工程中,常常需要处理数据中的缺失值、异常值和噪音。这包括填充缺失值、修复异常值或删除含有噪音的数据点。
   - 特征预处理:预处理是指对特征进行转换、归一化或标准化,以使其适合模型的要求。例如,将连续特征离散化、对特征进行缩放或进行特征编码等。

(4)特征监控:
   - 现有特征:在特征工程过程中,需要对现有特征进行监控和评估。这可以包括检查特征的相关性、重要性和分布情况,以确保它们对模型的贡献和可靠性。
   - 新特征:特征工程可能涉及引入新的特征或从现有特征中派生新的特征。在这种情况下,需要对新特征进行评估和验证,以确保它们对问题的解决有帮助,并且与其他特征不产生冗余或重复信息。

特征工程的目标是选择、创建和转换特征,以使其能够更好地描述问题和提供有效的输入给机器学习模型。通过合理的特征使用、获取、处理和监控,可以提高模型的性能、准确性和泛化能力。

1.2 数据模型与形成

数据模型是对现实世界中的实体、属性和关系的抽象描述,用于表示和理解数据的结构和特征。数据模型可以是概念模型、逻辑模型或物理模型,根据不同的目的和应用场景选择合适的模型类型。

数据模型的形成是指通过一系列的步骤和方法将原始数据转化为可用于分析、预测和决策的模型。这个过程通常包括以下几个主要步骤:

(1)数据清洗和预处理:对原始数据进行清洗、去除噪音、处理缺失值和异常值等。还可以进行数据归一化、标准化、特征选择和变换等预处理操作,以便更好地适应建模算法的要求。

(2)特征工程:根据领域知识和数据理解,对原始数据进行特征提取、构造和转换。这包括选择合适的特征、创建新的特征,以及对特征进行编码、缩放和转换等操作,以提高模型的表现和解释能力。

(3)模型选择和建立:根据任务的目标和数据的特征,选择合适的模型类型和算法。常见的模型包括线性回归、决策树、支持向量机、神经网络等。然后使用训练数据对模型进行训练和参数调优,以找到最佳的模型参数。

(4)模型评估和验证:使用测试数据对训练好的模型进行评估和验证,以衡量模型的性能和泛化能力。常用的评估指标包括准确度、精确度、召回率、F1值、ROC曲线等。

(5)模型部署和监控:将训练好的模型部署到实际应用环境中,并建立监控机制,持续跟踪模型的性能和效果,及时进行模型更新和优化。

数据模型的形成是一个迭代和交互的过程,需要不断调整和改进模型,以适应不断变化的数据和任务要求。

1.3 示例-房价预测

假设我们要构建一个房价预测模型。以下是数据和特征如何影响机器学习的上限的例子:

(1) 数据质量:如果我们的数据集包含准确、完整和可信的房屋信息,例如房屋面积、地理位置、房间数量、附近设施等,那么模型可以更准确地学习到房价与这些特征之间的关系。然而,如果数据集中存在错误、缺失值或噪音,模型可能会学到错误的规律或产生不可靠的预测结果。

(2)数据多样性:如果我们的数据集涵盖了不同地区、不同类型和不同价位的房屋样本,模型可以更好地理解房价与这些因素之间的关系。如果数据集过于单一,例如只包含某一地区的房屋数据,那么模型可能无法很好地推广到其他地区的房价预测。

(3)数据规模:如果我们有大规模的房屋数据集,模型可以从中学习到更多的模式和趋势,提高预测的准确性和泛化能力。相比之下,如果数据集规模较小,模型可能无法捕捉到数据中的细微关联,导致预测结果不够准确。

特征工程在房价预测模型中也起着重要的作用:

- 特征选择:通过选择与房价具有高相关性的特征,我们可以减少冗余信息和噪音,提高模型的效果。例如,房屋面积、卧室数量和浴室数量等可能是与房价紧密相关的特征,而与房价无关的特征可以被剔除。

- 特征转换:对于某些特征,我们可以进行转换或组合,以更好地捕捉特征之间的关系。例如,可以计算每个房屋的平均房间面积,或者将房屋的地理位置转换为距离市中心的距离等。

通过优化数据质量、多样性和规模,并进行适当的特征选择和特征工程,我们可以提高房价预测模型的性能和准确性,使其更接近机器学习问题的上限。

2. 数据清洗

2.1 概述

数据清洗是特征工程中的一个重要步骤,涉及到数据样本抽样和异常值处理。下面对这两个方面进行详细说明:

(1)数据样本抽样:
   - 数据样本抽样是从整体数据集中选择一个代表性子集的过程。常见的数据样本抽样方法包括随机抽样、分层抽样和集群抽样等。
   - 抽样的目的是减少数据量,加快模型训练和评估的速度,同时保持样本的代表性,以避免样本偏差对模型性能的影响。
   - 在数据样本抽样过程中,需要考虑抽样方法的合理性和适用性,确保抽样后的样本能够准确地代表整体数据集。

(2)异常值(空值)处理:
   - 异常值是指与其他样本明显不同的数据点,可能是由于测量错误、数据损坏或真实的异常情况引起的。空值则表示缺失的数据。
   - 异常值和空值的存在可能对模型训练和预测产生负面影响,因此需要进行相应的处理。
   - 异常值处理的方法包括删除异常值、替换异常值或将其视为缺失值进行处理。
   - 空值处理的方法包括删除含有空值的样本、用均值或中值填充空值、使用插值方法进行填充或利用模型预测空值等。

在进行数据清洗时,需要根据具体情况选择合适的方法。数据样本抽样和异常值(空值)处理的目标是提高数据的质量和可靠性,为后续的特征选择、特征处理和建模提供高质量的数据基础。

2.1 数据样本采集(抽样)

在数据样本采集(抽样)过程中,确实需要考虑以下几点:

(1) 代表性:
   - 采集的样本需要具备代表性,能够准确地反映整体数据集的特征和分布。
   - 需要确保采样过程不会引入采样偏差,即不会有系统性地选择某些样本而忽略其他样本。
   - 为了提高代表性,可以使用随机抽样方法,如简单随机抽样、分层抽样等,确保每个样本有相等的机会被选中。

(2)样本比例平衡与样本不平衡处理:
   - 在某些情况下,数据集中的不同类别或分组的样本比例可能不平衡,即某个类别的样本数量较少。
   - 样本比例不平衡可能导致模型训练的偏向性,降低对少数类别的识别能力。
   - 可以采取一些方法处理样本不平衡问题,如欠采样(删除多数类样本)、过采样(复制少数类样本)、生成合成样本、使用权重调整等。

(3)考虑全量数据:
   - 在一些情况下,如果数据集规模较小且计算资源允许,可以考虑使用全量数据进行建模。
   - 全量数据可以提供更准确的模型训练和评估结果,避免了抽样过程中的信息损失。
   - 当数据集较大且资源有限时,可以采用随机抽样等方法从全量数据中选择适当大小的样本子集进行建模。

综上所述,数据样本采集需要考虑样本的代表性、样本比例的平衡与不平衡处理以及是否使用全量数据,以确保采集到的样本能够准确地反映整体数据集的特征,并为后续的建模和分析提供可靠的基础。

示例:

假设我们正在建立一个信用评分模型,使用的数据集包含客户的个人信息和借款记录。在进行数据样本采集时,我们可以考虑以下几个方面的问题:

(1)代表性:
   - 在选择样本时,需要确保所选样本能够代表整个客户群体的特征和行为。
   - 例如,如果目标是预测违约风险,那么在样本中应该包含一定比例的违约客户和非违约客户,以确保模型能够准确地捕捉违约的相关特征。

(2)样本比例平衡与样本不平衡处理:
   - 在借款违约预测中,通常非违约客户的数量会远远超过违约客户,导致样本比例不平衡。
   - 可以采取过采样或欠采样等方法来处理样本不平衡问题,以平衡不同类别的样本比例。
   - 例如,可以使用过采样方法对违约客户进行复制或生成合成样本,或者使用欠采样方法从非违约客户中删除一部分样本,使得两个类别的样本数量更加平衡。

(3)考虑全量数据:
   - 如果数据集中的样本量较小且计算资源允许,可以考虑使用全量数据进行建模。
   - 使用全量数据可以充分利用可用信息,并减少因抽样过程引入的不确定性。
   - 但是,如果数据集过大或计算资源有限,可以选择随机抽样方法从全量数据中选择适当大小的样本子集进行建模,以在合理的计算成本下获得可靠的模型。

通过考虑代表性、样本比例平衡与不平衡处理以及是否使用全量数据,我们可以更好地选择样本并构建具有良好预测能力的信用评分模型。

2.2 异常值(空值)处理

在异常值(空值)处理环节,我们通常需要考虑以下几个方面:

(1)识别异常值和重复值:
   - 使用相关的API函数(如Pandas中的`isnull()`和`duplicated()`)来检测数据中的异常值和重复值。
   - `isnull()`函数可以用于检测缺失值(空值),而`duplicated()`函数用于检测重复值。

(2)直接丢弃异常值和重复值:
   - 对于异常值和重复值,我们可以选择直接将其丢弃(删除)。
   - 在Pandas中,可以使用`drop()`函数来删除特定的行或列,`dropna()`函数用于删除包含缺失值的行或列,而`drop_duplicates()`函数用于删除重复的行。

需要注意的是,在进行异常值和重复值处理时,需要权衡处理的方式和对数据的影响。有时候,异常值可能包含有用的信息,而重复值可能反映了数据的特定性质。因此,在决定是否丢弃异常值和重复值之前,我们需要仔细分析数据背景和具体问题,并评估其对建模结果的影响。

另外,除了直接丢弃异常值和重复值,还有其他处理方法可供选择,例如替换为特定值、插值填充等,具体选择取决于数据的特点和建模需求。

(3)当是否有异常作为一个新的属性,替代原值:
   - 有时,异常值可能包含有用的信息,我们可以将异常值的存在与否作为一个新的属性来表示。
   - 在Pandas中,可以使用`fillna()`函数来填充缺失值,并将缺失值替换为特定的值(如"有异常"和"无异常")。

(4)集中值指代:
   - 对于缺失值,我们可以选择用数据的集中值(如平均值、中位数等)来代替。
   - 在Pandas中,可以使用`fillna()`函数,通过传递集中值作为参数,将缺失值填充为集中值。

(5)边界值指代:
   - 另一种处理缺失值的方法是用数据的边界值(如最大值、最小值)来代替。
   - 在Pandas中,可以使用`fillna()`函数,通过传递边界值作为参数,将缺失值填充为边界值。

(6)插值:
   - 如果数据中存在缺失值,但我们希望保持数据的连续性,可以使用插值方法来填充缺失值。
   - 在Pandas中,可以使用`interpolate()`函数,特别是对于Series对象,可以进行插值处理。

需要根据数据的特点和具体

问题来选择合适的处理方法。对于不同类型的数据和缺失值的分布情况,可能需要尝试多种方法并进行比较,以选择最合适的处理策略。

示例

ABCDEF
a0b010.110f0
a1b1210.219f1
a1b211.432g2
a2b238.925f3
a3b349.18f4
a4512f5

清洗逻辑:

import pandas as pd

# 创建数据框
df = pd.DataFrame({"A": ["a0", "a1", "a1", "a2", "a3", "a4"],
                   "B": ["b0", "b1", "b2", "b2", "b3", None],
                   "C": [1, 2, None, 3, 4, 5],
                   "D": [0.1, 10.2, 11.4, 8.9, 9.1, 12],
                   "E": [10, 19, 32, 25, 8, None],
                   "F": ["f0", "f1", "g2", "f3", "f4", "f5"]})

# 判断是否为空值
df.isnull()

# 删除包含空值的行(在"B"和"C"列上进行判断)
df.dropna(subset=["B", "C"])

# 判断是否为重复行(根据"A"列判断,保留第一次出现的行)
df.duplicated(["A"], keep="first")

# 删除重复行(根据"A"和"B"列判断,保留第一次出现的行)
df.drop_duplicates(["A", "B"], keep="first", inplace=False)

# 使用指定值填充"B"列的空值
df["B"].fillna("b*")

# 使用"E"列的均值填充空值
df["E"].fillna(df["E"].mean())

# 对"E"列进行三次样条插值
df["E"].interpolate(method="spline", order=3)

# 对给定的序列进行线性插值
pd.Series([1, None, 4, 10, 8]).interpolate()

# 根据"D"列的上下四分位数对数据进行异常值筛选
df[df['D'] < df["D"].quantile(0.75) + 1.5 * (df["D"].quantile(0.75) - df["D"].quantile(0.25))]
df[df["D"] > df["D"].quantile(0.25) - 1.5 * (df["D"].quantile(0.75) - df["D"].quantile(0.25))]

# 根据"F"列的值选择行(以字母"f"开头的行)
df[[True if item.startswith("f") else False for item in list(df["F"].values)]]

3. 特征预处理

3.1 概述

特征预处理是机器学习中的一个重要步骤,它包括以下几个方面:

(1)特征选择:从原始特征集中选择出最具有预测能力的特征子集。这可以通过统计方法、特征相关性分析、特征重要性评估等方式进行。

(2)特征变换:对原始特征进行变换,使其适应模型的要求或提升模型的性能。常见的特征变换包括对数化(取对数)、离散化(将连续特征转换为离散特征)、数据平滑(去除噪声或异常值)、归一化(标准化,将特征缩放到相同的尺度)、数值化(将非数值型特征转换为数值型)和正规化(将特征缩放到一定范围内)等。

(3)特征降维:减少特征维度,以减少计算复杂性、去除冗余信息或提取最相关的特征。常用的降维方法包括主成分分析(PCA)、线性判别分析(LDA)和特征选择算法(如递归特征消除)等。

(4)特征衍生:通过对原始特征进行组合、转换或生成新的特征,以提取更高层次的信息。这可以包括特征交叉、多项式特征、特征指数化、特征平方化等。

通过进行特征预处理,可以使得数据更加适合机器学习算法的要求,提高模型的性能和准确性。不同的预处理方法适用于不同的数据类型和问题场景,需要根据具体情况进行选择和调整。

3.2 关于标注

在特征预处理中,"标注"(或称为"标记"、"标签"、"label")是指给数据样本赋予一个特定的类别或类别标识。标注通常用于监督学习问题,其中我们希望模型能够学习从输入特征到相应输出标签之间的映射关系。

在机器学习任务中,通常会有一个目标变量或标签(label),它代表了我们希望模型预测或分类的结果。这个目标变量可以是离散的类别(如分类问题)或连续的数值(如回归问题)。标注的作用是为每个数据样本提供对应的目标变量的值,从而让机器学习模型能够学习输入特征与目标变量之间的关系。

在数据集中,通常会将特征(输入变量)和标签(目标变量)分开存储,以便进行特征预处理和模型训练。标注可以是人工标记的,即由人为地根据问题领域的知识或经验为每个样本赋予正确的标签。此外,也可以使用自动化的方式进行标注,例如利用已有的标记数据训练一个模型来自动为新样本进行标注。

标注在特征预处理中起着重要的作用,它为监督学习问题提供了有监督的训练数据,使机器学习模型能够从中学习并进行预测或分类任务。

  • 1
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值