数据科学科学导论——数据预处理

第一关 数据清理——查漏补缺

数据清理所需要掌握的知识点:

1.numpy库

2.pandas库

3.sklearn库

为什么要清理数据?

因为任何一组大量的数据之中,肯定存在空缺值、噪声数据,而数据清理的重点就是将这两种数据全部给清楚掉。

空缺值

在大多数时候数据并不总是完整的,例如:数据库表中,很多条记录的对应字段没有相应值,比如销售表中的顾客收入。而引起空值的原因有很多:

  • 设备异常;

  • 与其他已有数据不一致而被删除;

  • 因为误解而没有被输入的数据;

  • 在输入时,有些数据应为得不到重视而没有被输入;

  • 对数据的改变没有进行日志记载。

空值一般要经过推断而补上。

一般代码格式:

#查看缺失值
import numpy as np  
import pandas as pd  
# 打开文件  
train = pd.read_csv('', na_values=['#NAME?'])  #文件存放地址
total = train.isnull().sum().sort_values(ascending=False)  
print(total)#输出缺失值在每列中的个数  
percent =(train.isnull().sum()/train.isnull().count()).sort_values(ascending=False)  
print(percent)#输出每列缺失值在总缺失值当中的百分比



#处理确实值
#一般分为三种方式去修改 
#使用出现次数最多的值填补  
train['Insulin'] = train['Insulin'].fillna(100)  


#使用中位数填补  
train['SkinThickness'] = train['SkinThickness'].fillna(train['SkinThickness'].median())  
train['BloodPressure'] = train['BloodPressure'].fillna(train['BloodPressure'].median()) 

 
#使用平均数填补  
train['BMI'] = train['BMI'].fillna(train['BMI'].mean())  
train['Glucose'] = train['Glucose'].fillna(train['Glucose'].mean())
total_after_process = train.isnull().sum().sort_values(ascending=False)  


print(total_after_process)#再次输出缺失值在每列中的个数  
percent_after_process =(train.isnull().sum()/train.isnull().count()).sort_values(ascending=False)  
print(percent_after_process)#输再次出每列缺失值在总缺失值当中的百分比

噪声处理

噪声的处理方式如下:

  • 忽略元组:当类标号缺少时通常这么做(假定挖掘任务设计分类或描述),当每个属性缺少值的百分比变化很大时,它的效果非常差;

  • 人工填写空缺值:工作量大,可行性低;

  • 使用一个全局变量填充空缺值:比如使用 unknown 或 -∞;

  • 使用属性的平均值填充空缺值;

  • 使用与给定元组属同一类的所有样本的平均值;

  • 使用最可能的值填充空缺值:使用像 Bayesian 公式或判定树这样的基于推断的方法。

    噪声数据

    噪声指一个测量变量中的随机错误或偏差。下列是一些引起不正确属性值的原因:

  • 数据收集工具的问题;

  • 数据输入错误;

  • 数据传输错误;

  • 技术限制;

  • 命名规则的不一致。

  • 重复记录;

  • 不完整的数据;

  • 不一致的数据。

  • 规则:异常值剔除;

  • 分箱(binning):首先排序数据,并将他们分到等深的箱中然后可以按箱的平均值平滑、按箱中值平滑、按箱的边界平滑等等;

  • 聚类:监测并且去除孤立点;

  • 计算机和人工检查结合:计算机检测可疑数据,然后对它们进行人工判断;

  • 回归:通过让数据适应回归函数来平滑数据。

通过可视化的方式查看噪声:

import matplotlib.pyplot as plt  
#噪声数据观察  
plt.scatter(x=train['Age'], y=train['Pregnancies'])  #绘制散点图
plt.xlabel('Age')  
plt.show()  
plt.ylabel('Pregnancies')  

题解:

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
def student():
    train = pd.read_csv('Task1/diabetes_null.csv', na_values=['#NAME?'])
    train['Insulin'] = train['Insulin'].fillna(100)
    train['SkinThickness'] = train['SkinThickness'].fillna(train['SkinThickness'].median())
    train['BloodPressure'] = train['BloodPressure'].fillna(train['BloodPressure'].median())
    train['BMI'] = train['BMI'].fillna(train['BMI'].mean())
    train['Glucose'] = train['Glucose'].fillna(train['Glucose'].mean())
    #********* Begin *********#
    train.sort_values(by='Age', ascending=False)[:1]  
    train = train.drop((train[train['Age'] >= 80]).index)
    plt.figure(figsize=(10, 10))  
    plt.scatter(x=train['Age'], y=train['Pregnancies'])  
    plt.savefig("Task1/img/T1.png")  
    plt.show()  
    #********* End *********#    

第二关 数据集成-海纳百川

数据集成

数据集成指将多个数据源中的数据整合到一个一致的存储中。模式集成指整合不同数据源中的元数据,实体识别问题:匹配来自不同数据源的现实世界的实体,比如: A.cust-id = B.customer_no。

我们需要检测并解决数据值的冲突。对现实世界中的同一实体,来自不同数据源的属性值可能是不同的。可能的原因:不同的数据表示或不同的度量等等。

冗余数据处理

集成多个数据库时,经常会出现冗余数据:

  • 同一属性在不同的数据库中会有不同的字段名;

  • 一个属性可以由另外一个表导出,如“年薪”。

仔细将多个数据源中的数据集成起来,能够减少或避免结果数据中的冗余与不一致性,从而可以提高挖掘的速度和质量。

题解:

import numpy as np
import pandas as pd

def student():
    #********* Begin *********#
    train = pd.read_csv('Task2/diabetes_null.csv', na_values=['#NAME?'])  
    another_train = pd.read_csv('Task2/diabetes_zero.csv', na_values=['#NAME?'])  
    merge_data=pd.concat([train,another_train])  
    print(merge_data.shape)  
    #********* End *********#   

第三关 数据变换-同源共流

数据变换

常见的数据变换包括:特征二值化、特征归一化、连续特征变化,定性特征哑编码等。

下面简单介绍常用的数据变换:

  • 平滑:去除数据中的噪声 (分箱、聚类、回归)

  • 聚集:汇总,数据立方体的构建

  • 数据概化:沿概念分层向上汇总

  • 规范化:将数据按比例缩放,使之落入一个小的特定区间。最小-最大规范化、z-score规范化、小数定标规范化

  • 属性构造:通过现有属性构造新的属性,并添加到属性集中;以增加对高维数据的结构的理解和精确度  

题解:

import numpy as np
import pandas as pd
from sklearn.preprocessing import normalize,MinMaxScaler

def student():
    train = pd.read_csv('Task3/diabetes_null.csv', na_values=['#NAME?'])
    train['Insulin'] = train['Insulin'].fillna(100)
    train['SkinThickness'] = train['SkinThickness'].fillna(train['SkinThickness'].median())
    train['BloodPressure'] = train['BloodPressure'].fillna(train['BloodPressure'].median())
    train['BMI'] = train['BMI'].fillna(train['BMI'].mean())
    train['Glucose'] = train['Glucose'].fillna(train['Glucose'].mean())
    #********* Begin *********#
    data_normalized=normalize(train,axis=0)
    print("z-score规范化:\n",data_normalized)
    data_scaler=MinMaxScaler()  
    data_scaled=data_scaler.fit_transform(train)
    print("\n最小-最大规范化:\n",data_scaled)
    #********* End *********#    

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
数据预处理数据科学中非常重要的一个环节,数据预处理的目的是对原始数据进行清洗、转换和集成,以便于进一步的分析和建模。数据预处理可以极大地影响最终分析和建模的结果,因此在数据预处理过程中需要仔细处理。 数据预处理进阶包括以下几个方面: 1. 数据清洗:数据清洗是数据预处理的第一步,主要是对原始数据进行检查、修复和删除不良数据,例如缺失值、异常值、重复值等。数据清洗可以提高数据质量,减少建模时的误差。 2. 特征选择:特征选择是选择最相关的特征,以便于进行建模和分析。特征选择可以减少特征的数量,提高模型的准确性和泛化能力。 3. 特征提取:特征提取是将原始数据转换为更具有代表性的特征。例如,将文本转换为词袋模型或者TF-IDF模型。特征提取可以提高模型的准确性和泛化能力。 4. 数据集成:数据集成是将来自不同数据源的数据合并成一个数据集,以便于进行分析。数据集成可以减少数据冗余,提高数据质量。 5. 数据变换:数据变换是将数据转换为适合分析的形式。例如,将连续的数值数据离散化,或者进行归一化。数据变换可以提高模型的准确性和泛化能力。 总之,数据预处理数据科学中非常重要的一个环节。通过数据清洗、特征选择、特征提取、数据集成和数据变换等方法,可以提高数据质量,减少建模时的误差,提高模型的准确性和泛化能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值