Task2:数据的探索性分析(EDA)

1.什么是EDA

探索性数据分析(Exploratory Data Analysis,简称EDA),摘抄网上的一个中文解释,是指对已有的数据(特别是调查或观察得来的原始数据)在尽量少的先验假定下进行探索,通过作图、制表、方程拟合、计算特征量等手段探索数据的结构和规律的一种数据分析方法。特别是当我们对面对大数据时代到来的时候,各种杂乱的“脏数据”,往往不知所措,不知道从哪里开始了解目前拿到手上的数据时候,探索性数据分析就非常有效。探索性数据分析是上世纪六十年代提出,其方法有美国统计学家John Tukey提出的。

2.EDA包含内容

  1. 载入各种数据科学以及可视化库:

    • 数据科学库 pandas、numpy、scipy;
    • 可视化库 matplotlib、seabon;
    • 其他;
  2. 载入数据:

    • 载入训练集和测试集;
    • 简略观察数据(head()+shape);
  3. 数据总览:

    • 通过describe()来熟悉数据的相关统计量
    • 通过info()来熟悉数据类型
  4. 判断数据缺失和异常

    • 查看每列的存在nan情况
    • 异常值检测
  5. 了解预测值的分布

    • 总体分布概况(无界约翰逊分布等)
    • 查看skewness and kurtosis
    • 查看预测值的具体频数
  6. 特征分为类别特征和数字特征,并对类别特征查看unique分布

  7. 数字特征分析

    • 相关性分析
    • 查看几个特征得 偏度和峰值
    • 每个数字特征得分布可视化
    • 数字特征相互之间的关系可视化
    • 多变量互相回归关系可视化
  8. 类型特征分析

    • unique分布
    • 类别特征箱形图可视化
    • 类别特征的小提琴图可视化
    • 类别特征的柱形图可视化类别
    • 特征的每个类别频数可视化(count_plot)
  9. 用pandas_profiling生成数据报告

3.学习心得

3.1.使用df.head()和df.tail()简略观察了解数据,对训练集和测试集分别查看

训练集:Train_data

Train_data.head().append(Train_data.tail())

测试集:Test_data

Test_data.head().append(Test_data.tail())

3.2总览数据概况

  1. describe种有每列的统计量,个数count、平均值mean、方差std、最小值min、中位数25% 50% 75% 、以及最大值 看这个信息主要是瞬间掌握数据的大概的范围以及每个值的异常值的判断,比如有的时候会发现999 9999 -1 等值这些其实都是nan的另外一种表达方式,有的时候需要注意下
  2. info 通过info来了解数据每列的type,有助于了解是否存在除了nan以外的特殊符号异常

通过describe()来熟悉数据的相关统计量

训练集:Train_data

Train_data.describe().T

测试集:Test_data

Test_data.describe().T

从describe()可以看出训练集和测试集的数据分布差距不是很大,比较友好

3.3判断数据缺失和异常

1.查看每列的存在nan情况

训练集:Train_data

Train_data.isnull().sum().sort_values(ascending = False)

测试集:Test_data

Test_data.isnull().sum().sort_values(ascending = False)

以上可以看出确实值基本都在在fuelType(燃油类型),gearbox(变速箱),bodyType(车身类型),训练集和测试集保持一致,其中训练集中有一个样本model(车型编码)有缺失,因为样本只有一个,可以考虑直接删除此样本

2.查看异常值

Train_data.info()

可以看到notRepairedDamage(汽车有尚未修复的损坏)为object类型,可能存了不同基础类型的数据

用Train_data['notRepairedDamage'].value_counts()查看一下

可以看出‘ - ’也为空缺值,可以先将此类异常数据替换为nan

Train_data['notRepairedDamage'].replace('-', np.nan, inplace=True)

查看seller(销售方),offerType(报价类型)的value_counts()可以看出数据倾斜很严重,可以删除

Train_data["seller"].value_counts()

​​​​

Train_data["offerType"].value_counts()

3.4了解预测值的分布

1.总体分布概况(无界约翰逊分布等)

import scipy.stats as st
y = Train_data['price']
plt.figure(1); plt.title('Johnson SU')
sns.distplot(y, kde=False, fit=st.johnsonsu)
plt.figure(2); plt.title('Normal')
sns.distplot(y, kde=False, fit=st.norm)
plt.figure(3); plt.title('Log Normal')
sns.distplot(y, kde=False, fit=st.lognorm)

价格不服从正态分布,所以在进行回归之前,它必须进行转换。虽然对数变换做得很好,但最佳拟合是无界约翰逊分布

2.查看skewness and kurtosis,偏度是数据的不对称程度,峰度表示分布的尾部与正态分布的区别(关于峰度和偏度的参考链接

sns.distplot(Train_data['price']);
print("Skewness: %f" % Train_data['price'].skew())
print("Kurtosis: %f" % Train_data['price'].kurt())

3.查看预测值的具体频数

plt.hist(Train_data['price'], orientation = 'vertical',histtype = 'bar', color ='red')
plt.show()

查看频数, 大于20000的值极少,可以把这些当作特殊得值(异常值)直接填充或者删掉,如果测试集也有少量大于20000的值,直接剔除可能不太好,则可以考虑对price进行log变换

4.log变换 z之后的分布较均匀,可以进行log变换进行预测,在回归预测中,这是应对数据分布不均匀比较常用的手段

plt.hist(np.log(Train_data['price']), orientation = 'vertical',histtype = 'bar', color ='red') 
plt.show()

3.5 特征分为类别特征和数字特征,并对类别特征查看unique分布

1.特征分为类别特征和数字特征,并对类别特征查看nunique,value_counts分布

for cat_fea in categorical_features:
    print(cat_fea + "的特征分布如下:")
    print("{}特征有个{}不同的值".format(cat_fea, Train_data[cat_fea].nunique()))
    print(Train_data[cat_fea].value_counts())

2.数字特征分析

相关性分析
numeric_features.append('price')
price_numeric = Train_data[numeric_features]
correlation = price_numeric.corr()
print(correlation['price'].sort_values(ascending = False),'\n')

查看数值特征跟price的相关性热力图
f , ax = plt.subplots(figsize = (7, 7))

plt.title('Correlation of Numeric Features with Price',y=1,size=16)

sns.heatmap(correlation,square = True,  vmax=0.8)

可以看出kilometer(汽车已行驶公里)和v_3(匿名特征)跟price想关性比较强

每个数字特征得分布可视化
f = pd.melt(Train_data, value_vars=numeric_features)
g = sns.FacetGrid(f, col="variable",  col_wrap=2, sharex=False, sharey=False)
g = g.map(sns.distplot, "value")

数字特征相互之间的关系可视化
sns.set()
columns = ['price', 'v_12', 'v_8' , 'v_0', 'power', 'v_5',  'v_2', 'v_6', 'v_1', 'v_14']
sns.pairplot(Train_data[columns],size = 2 ,kind ='scatter',diag_kind='kde')
plt.show()

上图对角线的小图可以看出每个变量的分布,不同变量交叉的小图可以看出特征两两之间是否有明显的关系(比如正比,反比,分簇情况接近)

多变量互相回归关系可视化
fig, ((ax1, ax2), (ax3, ax4), (ax5, ax6), (ax7, ax8), (ax9, ax10)) = plt.subplots(nrows=5, ncols=2, figsize=(24, 20))
# ['v_12', 'v_8' , 'v_0', 'power', 'v_5',  'v_2', 'v_6', 'v_1', 'v_14']
v_12_scatter_plot = pd.concat([Y_train,Train_data['v_12']],axis = 1)
sns.regplot(x='v_12',y = 'price', data = v_12_scatter_plot,scatter= True, fit_reg=True, ax=ax1)

v_8_scatter_plot = pd.concat([Y_train,Train_data['v_8']],axis = 1)
sns.regplot(x='v_8',y = 'price',data = v_8_scatter_plot,scatter= True, fit_reg=True, ax=ax2)

v_0_scatter_plot = pd.concat([Y_train,Train_data['v_0']],axis = 1)
sns.regplot(x='v_0',y = 'price',data = v_0_scatter_plot,scatter= True, fit_reg=True, ax=ax3)

power_scatter_plot = pd.concat([Y_train,Train_data['power']],axis = 1)
sns.regplot(x='power',y = 'price',data = power_scatter_plot,scatter= True, fit_reg=True, ax=ax4)

v_5_scatter_plot = pd.concat([Y_train,Train_data['v_5']],axis = 1)
sns.regplot(x='v_5',y = 'price',data = v_5_scatter_plot,scatter= True, fit_reg=True, ax=ax5)

v_2_scatter_plot = pd.concat([Y_train,Train_data['v_2']],axis = 1)
sns.regplot(x='v_2',y = 'price',data = v_2_scatter_plot,scatter= True, fit_reg=True, ax=ax6)

v_6_scatter_plot = pd.concat([Y_train,Train_data['v_6']],axis = 1)
sns.regplot(x='v_6',y = 'price',data = v_6_scatter_plot,scatter= True, fit_reg=True, ax=ax7)

v_1_scatter_plot = pd.concat([Y_train,Train_data['v_1']],axis = 1)
sns.regplot(x='v_1',y = 'price',data = v_1_scatter_plot,scatter= True, fit_reg=True, ax=ax8)

v_14_scatter_plot = pd.concat([Y_train,Train_data['v_14']],axis = 1)
sns.regplot(x='v_14',y = 'price',data = v_14_scatter_plot,scatter= True, fit_reg=True, ax=ax9)

v_13_scatter_plot = pd.concat([Y_train,Train_data['v_13']],axis = 1)
sns.regplot(x='v_13',y = 'price',data = v_13_scatter_plot,scatter= True, fit_reg=True, ax=ax10)

sns.pairplot()跟sns.regplot()很相似,都能通过图形看出两两变量之间的关系,sns.regplot()把拟合出来的回归线也画出来了

3.6类别特征分析

查看类别变量
print(categorical_features)
['name', 'model', 'brand', 'bodyType', 'fuelType', 'gearbox', 'notRepairedDamage', 'regionCode']
unique分布
for fea in categorical_features:
    print(Train_data[fea].nunique())

上图可以看出name(汽车交易名称)有99662个,regionCode(地区编码)有7905个,估计地区编码分到很细的地区了,可以考虑截取部分位数获取省/市编码,省/市可以和其他类别变量做交叉,生成新变量

类别特征箱形图可视化

# 因为 name和 regionCode的类别太稀疏了,这里我们把不稀疏的几类画一下
categorical_features = ['model',
 'brand',
 'bodyType',
 'fuelType',
 'gearbox',
 'notRepairedDamage']
for c in categorical_features:
    Train_data[c] = Train_data[c].astype('category')
    if Train_data[c].isnull().any():
        Train_data[c] = Train_data[c].cat.add_categories(['MISSING'])
        Train_data[c] = Train_data[c].fillna('MISSING')

def boxplot(x, y, **kwargs):
    sns.boxplot(x=x, y=y)
    x=plt.xticks(rotation=90)

f = pd.melt(Train_data, id_vars=['price'], value_vars=categorical_features)
g = sns.FacetGrid(f, col="variable",  col_wrap=2, sharex=False, sharey=False, size=5)
g = g.map(boxplot, "value", "price")

类别特征的小提琴图可视化
catg_list = categorical_features
target = 'price'
for catg in catg_list :
    sns.violinplot(x=catg, y=target, data=Train_data)
    plt.show()

类别特征的柱形图可视化
def bar_plot(x, y, **kwargs):
    sns.barplot(x=x, y=y)
    x=plt.xticks(rotation=90)

f = pd.melt(Train_data, id_vars=['price'], value_vars=categorical_features)
g = sns.FacetGrid(f, col="variable",  col_wrap=2, sharex=False, sharey=False, size=5)
g = g.map(bar_plot, "value", "price")

类别特征的每个类别频数可视化(count_plot)
def count_plot(x,  **kwargs):
    sns.countplot(x=x)
    x=plt.xticks(rotation=90)

f = pd.melt(Train_data,  value_vars=categorical_features)
g = sns.FacetGrid(f, col="variable",  col_wrap=2, sharex=False, sharey=False, size=5)
g = g.map(count_plot, "value")

箱形图,小提琴图,柱形图,频数图均比较适合观察类别变量的分布

3.7用pandas_profiling生成数据报告

用pandas_profiling生成一个较为全面的可视化和数据报告(较为简单、方便) 最终打开html文件即可

import pandas_profiling
pfr = pandas_profiling.ProfileReport(Train_data)
pfr.to_file("./example.html")

4.总结

本次比赛为学习赛,Datawhale在天池开源了EDA的notebok,我下载到本地都运行了一遍,第一遍其实有点迷茫,感觉都是别人写好的东西,虽然自己运行起来行云流水,看到一幅幅炫酷的图片,却没有因为EDA对数据有更深的理解,然后开始跑了一个baseline,在跑模型的过程中发现有些数据只是一把梭放模型里了。其实有些数据可以通过EDA深究一下的,然后开始写此篇学习笔记,在边跑notebook边写笔记的过程中发现了一些之前没用的技巧,找出了一些trick,比如给出的regionCode (看车地区编码)粒度很细,可以提取部分位数找到省/市级的地区代码,和其他类别变量做交叉,regDate (汽车注册时间)与与 creatDate(广告发布时间)可以计算出车龄,还可以根据特征想关性分析筛选特征。特征工程在建模中很重要,而特征工程的灵感又通常来源于EDA,在做模型没有思路的时候,不妨来一波EDA挖挖矿,往往能取得不错的收获!

参考链接:

https://tianchi.aliyun.com/notebook-ai/detail?postId=95457

https://support.minitab.com/zh-cn/minitab/18/help-and-how-to/statistics/basic-statistics/supporting-topics/data-concepts/how-skewness-and-kurtosis-affect-your-distribution/

https://www.jianshu.com/p/6e18d21a4cad

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值