1 初心
本系列笔记用于记录自己第一次参加Datawhale的组队学习。自己马上开启研究生学习生涯,因此熟练掌握数据分析这一重要技能对未来的学习能够提供很大的帮助,Datawhale团队在项目初衷里说数据分析是一个要从一堆数字中看到真相的过程。学会操作数据只是数据分析的一半功力,剩下的另一半要用我们的大脑,多多思考,多多总结,更要多动手,实打实的的敲代码。所以也希望在学习这门课时,多去推理,多去问问为什么;多多练习,确保理论实践结合起来,在课程结束的时候一定会有大收获。
因此希望自己再接下来的11天里面能够实事求是、脚踏实地完成各项任务,提高自己的硬实力。
特别喜欢一句话:也许不负光阴就是最好的努力,而努力就是最好的自己。
学习内容: 在数据分析的过程中,数据清洗就占据了约80%的时间。数据清洗得好,对后续分析建模十分有帮助。本次学习将结合实际案例介绍数据清洗和数据的特征处理。
开始之前,导入需要的包和数据:
import numpy as np
import pandas as pd
df = pd.read_csv('train.csv')
df.head()
2 数据清洗
我们拿到的数据通常是不干净的,所谓的不干净,就是数据中有缺失值,有一些异常点等,需要经过一定的处理才能继续做后面的分析或建模,所以拿到数据的第一步是进行数据清洗,本章我们将学习缺失值、重复值、字符串和数据转换等操作,将数据清洗成可以分析或建模的亚子。
2.1 缺失值的观察与处理
我们拿到的数据经常会有很多缺失值,比如我们可以看到Cabin列存在NaN,那其他列还有没有缺失值呢?这些缺失值要怎么处理呢?
2.1.1 查看缺失值
请查看每个特征缺失值的个数:
方法一:
df.info()
方法二:
df.isnull().sum()
请查看Age, Cabin, Embarked列的数据:
df[['Age','Cabin','Embarked']].head()
2.1.2 缺失值处理
尝试对Age列的数据的缺失值进行处理:
df[df['Age']==None] = 0
df.head()
df[df['Age'].isnull()] = 0
df.head()
df[df['Age'] == np.nan] = 0
df.head()
思考:检索空缺值用np.nan,None以及.isnull()哪个更好,这是为什么?如果其中某个方式无法找到缺失值,原因又是为什么?
数值列读取数据后,空缺值的数据类型为float64所以用None一般索引不到,比较的时候最好用np.nan
尝试使用不同的方法直接对整张表的缺失值进行处理:
df.dropna().head()
df.fillna(0).head()
思考:dropna和fillna有哪些参数,分别如何使用呢?
①dropna : 根据每个标签的值是否是缺失数据来筛选轴标签,并根据允许丢失的数据量来确定阈值。(对缺失的数据进行过滤)
DataFrame.dropna(axis=0, how=‘any’, thresh=None, subset=None, inplace=False)
参数说明:
- axis:
- axis=0: 删除包含缺失值的行
- axis=1: 删除包含缺失值的列
- how: 与axis配合使用
- how=‘any’ :只要有缺失值出现,就删除该行货列
- how=‘all’: 所有的值都缺失,才删除行或列
- thresh: axis中至少有thresh个非缺失值,否则删除
比如axis=0,thresh=10:标识如果该行中非缺失值的数量小于10,将删除改行 - subset: list 在哪些列中查看是否有缺失值
- inplace:是否在原数据上操作。如果为真,返回None否则返回新的copy,去掉了缺失值
②fillna: 用指定值或插值的方法填充缺失数据
DataFrame.fillna(value=None, method=None, axis=None, inplace=False, limit=None, downcast=None, **kwargs)
- value:标量值或字典型对象用于填充缺失值
- method:插值方法,如果没有其它参数,默认是‘ffill’
- axis:需要填充的轴,默认axis=0
- inplace:修改被调用的对象,而不是生成一个备份
- limit:用于前向或后向填充时最大的填充范围
③isnull : 返回表明哪些值是缺失值的布尔值(判断数据是否缺失)
2.2 重复值的观察与处理
由于这样那样的原因,数据中会不会存在重复值呢,如果存在要怎样处理呢
2.2.1 查看数据中的重复值
df[df.duplicated()]
2.2.2 对数据中的重复值进行处理
df= df.drop_duplicates()
df.head()
将前面清洗的数据保存为csv格式
df.to_csv('test_clear.csv')
2.3 特征观察与处理
我们对特征进行一下观察,可以把特征大概分为两大类:
数值型特征:Survived ,Pclass, Age ,SibSp, Parch, Fare,其中Survived, Pclass为离散型数值特征,Age,SibSp, Parch, Fare为连续型数值特征
文本型特征:Name, Sex, Cabin,Embarked, Ticket,其中Sex, Cabin, Embarked, Ticket为类别型文本特征。
数值型特征一般可以直接用于模型的训练,但有时候为了模型的稳定性及鲁棒性会对连续变量进行离散化。文本型特征往往需要转换成数值型特征才能用于建模分析。
2.3.1 对年龄进行分箱(离散化)处理
(1)分享操作是什么?
在建模中,需要对连续变量离散化,特征离散化后,模型会更稳定,降低了模型过拟合的风险。
(2)将连续变量Age平均分箱成5个年龄段,并分别用类别变量12345表示:
df['AgeBand'] = pd.cut(df['Age'],5,labels = [1,2,3,4,5])
df.head()
(3)将连续变量Age划分为[0,5) [5,15) [15,30) [30,50) [50,80)五个年龄段,并分别用类别变量12345表示
df['AgeBand'] = pd.cut(df['Age'],[0,5,15,30,50,80],labels = [1,2,3,4,5])
df.head(3)
(4)将连续变量Age按10% 30% 50% 70% 90%五个年龄段,并用分类变量12345表示
df['AgeBand'] = pd.qcut(df['Age'],[0,0.1,0.3,0.5,0.7,0.9],labels = [1,2,3,4,5])
df.head()
2.3.2 对文本变量进行转换
查看文本变量名及种类:
方法一:value_counts
df['Sex'].value_counts()
df['Cabin'].value_counts()
df['Embarked'].value_counts()
方法二:unique
df['Sex'].unique()
df['Sex'].nunique()
将文本变量Sex, Cabin ,Embarked用数值变量12345表示:
方法一:replace
df['Sex_num'] = df['Sex'].replace(['male','female'],[1,2])
df.head()
方法二:map
df['Sex_num'] = df['Sex'].map({'male': 1, 'female': 2})
df.head()
方法三: 使用sklearn.preprocessing的LabelEncoder
from sklearn.preprocessing import LabelEncoder
for feat in ['Cabin', 'Ticket']:
lbl = LabelEncoder()
label_dict = dict(zip(df[feat].unique(), range(df[feat].nunique())))
df[feat + "_labelEncode"] = df[feat].map(label_dict)
df[feat + "_labelEncode"] = lbl.fit_transform(df[feat].astype(str))
df.head()
将文本变量Sex, Cabin, Embarked用one-hot编码表示
#方法一: OneHotEncoder
for feat in ["Age", "Embarked"]:
# x = pd.get_dummies(df["Age"] // 6)
# x = pd.get_dummies(pd.cut(df['Age'],5))
x = pd.get_dummies(df[feat], prefix=feat)
df = pd.concat([df, x], axis=1)
#df[feat] = pd.get_dummies(df[feat], prefix=feat)
df.head()
从纯文本Name特征里提取出Titles的特征(所谓的Titles就是Mr,Miss,Mrs等)
df['Title'] = df.Name.str.extract('([A-Za-z]+)\.', expand=False)
df.head()