EDA-数据探索性分析
EDA目标
EDA的价值主要在于熟悉数据集,了解数据集,对数据集进行验证来确定所获得数据集可以用于接下来的机器学习或者深度学习使用。
当了解了数据集之后我们下一步就是要去了解变量间的相互关系以及变量与预测值之间的存在关系。
引导数据科学从业者进行数据处理以及特征工程的步骤,使数据集的结构和特征集让接下来的预测问题更加可靠。
完成对于数据的探索性分析,并对于数据进行一些图表或者文字总结并打卡。
内容介绍
1、导入数据处理库可视化库
2、载入数据
3、数据总览
4、数据缺失值,异常值
5、预测值的分布
6、特征的分类,以及特征的分布
7、数字类型特征的分析
8、类型特征分析
9、生成分析报告
开始
工作都是在天池jupyter notebook 下开始
!ls #查看路径下的文件
baseline_model.csv submit2.csv
car.ipynb submit.csv
data_for_tree.csv sub_Weighted.csv
example.html train_data
itcont_2020_20200722_20200820.txt Train_data1.csv
jieguo.csv train_tree.csv
model.h5 used_car_sample_submit.csv
new_used_car_testA_20200313.csv used_car_testA_20200313.csv
new_used_car_train_20200313.csv used_car_train_20200313.csv
result.csv weight.best.h5
submission.csv
#导入需要的库函数
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import missingno as msno
import seaborn as sns
#没有的库pip install 安装一下
#如果使用天池的GPU安装库的时候在后面加上--user
#读取数据并查看
train_data = pd.read_csv('used_car_train_20200313.csv',sep=' ')
test_data = pd.read_csv('used_car_testA_20200313.csv',sep=' ')
#查看前五行,以及后五行数据
train_data.head().append(train_data.tail())
#查看数据的结构
train_data.shape
#同样的方式查看一下测试集的数据
test_data.head().append(test_data.tail())
2、查看数据的信息,数据的类型,
train_data.describe()
test_data.describe()
train_data.info()
test_data.info()
查看是否有缺失值
train_data.isnull().sum()
test_data.isnull().sum()
尝试缺失值可视化
#缺失值的可视化
missing = train_data.isnull().sum()
missing = missing[missing>0]
missing.sort_values(inplace=True)#缺失值进行排序
missing.plot.bar()#柱状图
#missingno是一个可视化缺失值的库
##在train_dataDataframe中,sample(250)表示抽取表格中250个样本。白线越多,代表缺失值越多
msno.matrix(train_data.sample(250))
msno.bar(train_data.sample(250))#查看一下柱状图
#还可以看一下缺失值的热力图
msno.heatmap(train_data,figsize=(16, 7))#figsize是指图的大小
#热力图表示的时某一个值缺失时另一个值缺失的概率
#例如gearbox缺失时bodyType缺失的概率是0.3
#同样查看测试集的缺失值情况
missingtest = test_data.isnull().sum()
missingtest = missingtest[missingtest>0]
missingtest.sort_values(inplace=True)
missingtest.plot.bar()
msno.matrix(test_data.sample(250))
msno.bar(test_data.sample(250))
msno.heatmap(test_data,figsize=(12,6))
#测试集和训练集缺失值的情况相差不大,并且缺失值的特征的关系也差不多
#异常值检查
train_data.info()
#可以发现除了notRepairedDamage 为object类型其他都为数字
train_data['notRepairedDamage'].value_counts()#一共有三种类型 ‘-’为空值
#处理异常值
#‘-’处理为空值
train_data['notRepairedDamage'].replace('-',np.nan,inplace=True)
train_data['notRepairedDamage'].value_counts()
train_data.isnull().sum()
#同样处理测试集的数据
test_data.isnull().sum()
test_data['notRepairedDamage'].value_counts()
test_data['notRepairedDamage'].replace('-',np.nan,inplace=True)
test_data['seller'].value_counts()#只有一个值可以去掉
test_data['offerType'].value_counts()#数据只有一个值,数据倾斜太严重,也可以去掉
del train_data['offerType']
del test_data['offerType']
del train_data['seller']
del test_data['seller']
#查看预测值的分布
train_data['price']
train_data['price'].value_counts()
train_data['price'].hist(bins=50,figsize=(20,15))
#查看分布
#分布情况属于哪种分布
#价格不属于正态分布
import scipy.stats as st
y = train_data['price']
plt.figure(1)
plt.title('Johnson SU')
sns.distplot(y,kde=False,fit=st.johnsonsu)#
plt.figure(2)
plt.title('Normal')
sns.distplot(y,kde=False,fit=st.norm)
plt.figure(3)
plt.title('Log Normal')
sns.distplot(y,kde=False,fit=st.lognorm)
## 2) 查看skewness偏度 和 kurtosis峰度
# 偏度: 是描述数据分布形态的统计量,其描述的是某总体取值分布的对称性,
#简单来说就是数据的不对称程度,绝对值越大表明数据分布越不对称,偏斜程度大
# 峰度: 描述某变量所有取值分布形态陡缓程度的统计量,简单来说就是数据
#分布顶的尖锐程度(>0尖顶峰, <0平顶峰, =0与正态分布陡峭程度一致)
sns.distplot(train_data['price']);
print("Skewness: %f" % train_data['price'].skew())
print("Kurtosis: %f" % train_data['price'].kurt())
train_data.skew(),train_data.kurt()
sns.distplot(train_data.skew(),color='blue',axlabel='Skewness')
sns.distplot(train_data.kurt(),color='orange',axlabel ='Kurtness')
#变换预测值的分布
plt.hist(train_data['price'], orientation = 'vertical',histtype = 'bar', color ='red')
plt.show()
#变换为log
plt.hist(np.log(train_data['price']), orientation = 'vertical',histtype = 'bar', color ='red')
plt.show()
#获取标签
y_train = train_data['price']
#特征分类
numeric_features = ['power', 'kilometer', 'v_0', 'v_1', 'v_2', 'v_3', 'v_4', 'v_5', 'v_6', 'v_7', 'v_8', 'v_9', 'v_10', 'v_11', 'v_12', 'v_13','v_14' ]
categorical_features = ['name', 'model', 'brand', 'bodyType', 'fuelType', 'gearbox', 'notRepairedDamage', 'regionCode',]
#数字特征的分布
for cat_fea in categorical_features:
print(cat_fea + "分布")
print("{}特征有{}不同的值".format(cat_fea,train_data[cat_fea].nunique()))
print(train_data[cat_fea].value_counts())
#其他特征分布
for cat_fea in categorical_features:
print(cat_fea + "的特征分布如下:")
print("{}特征有个{}不同的值".format(cat_fea, test_data[cat_fea].nunique()))
print(test_data[cat_fea].value_counts())
#尝试查找数字特征之间与价格之间的关系
numeric_features.append('price')
#相关性分析
price_numeric = train_data[numeric_features]
correlation = price_numeric.corr()
print(correlation['price'].sort_values(ascending=False),'\n')
#相关性热力图
f , ax = plt.subplots(figsize = (7, 7))
plt.title('Correlation of Numeric Features with Price',y=1,size=16)
sns.heatmap(correlation,square = True, vmax=0.8)
#相关性低只是代表线性相关比较低,并不是没有相关性
del price_numeric['price']
#查看特征的偏度和峰度(就是和标准正态分布之间的差异)
for col in numeric_features:
print('{:15}'.format(col),
'Skewness: {:05.2f}'.format(train_data[col].skew()) ,
' ' ,
'Kurtosis: {:06.2f}'.format(train_data[col].kurt())
)
# 每个数字特征得分布可视化
#https://blog.csdn.net/maymay_/article/details/80039677 看一下这个
#关于Facegrid https://baijiahao.baidu.com/s?id=1618970364639228034&wfr=spider&for=pc
f = pd.melt(train_data, value_vars=numeric_features)
g = sns.FacetGrid(f, col="variable", col_wrap=2, sharex=False, sharey=False)
g = g.map(sns.distplot, "value")
#数字特征之间的关系
sns.set()#set( )通过设置参数可以用来设置背景,调色板等,更
columns = ['price', 'v_12', 'v_8' , 'v_0', 'power', 'v_5', 'v_2', 'v_6', 'v_1', 'v_14']
#pairplot:pair是成对的意思,即是说这个用来展现变量两两之间的关系,线性、非线性、相关等等
#kind:用于控制非对角线上的图的类型,可选"scatter"与"reg"
#diag_kind:控制对角线上的图的类型,可选"hist"与"kde"
sns.pairplot(train_data[columns],size=2,kind='scatter',diag_kind='kde')
plt.show()
#类别特征分析
for fea in categorical_features:
print(train_data[fea].nunique())
99662,248,40,8,7,2,2,7905
# 类别特征箱形图可视化
#因为 name和 regionCode的类别太稀疏了,这里我们把不稀疏的几类画一下
## 2) 类别特征箱形图可视化
# 因为 name和 regionCode的类别太稀疏了,这里我们把不稀疏的几类画一下
categorical_features = ['model',
'brand',
'bodyType',
'fuelType',
'gearbox',
'notRepairedDamage']
for c in categorical_features:
#Pandas中的Categoricals模块能够有效地编码并显著性地提高了文本分类的效率。
train_data[c] = train_data[c].astype('category')
#np.array.any()是或操作,将np.array中所有元素进行或操作,只要有一个为真,则返回True,否则返回Flase;
#np.array.all()是与操作,将np.array中所有元素进行与操作,只要有一个为假,返回False,都为真,返回True。
if train_data[c].isnull().any():
train_data[c] = train_data[c].cat.add_categories(['MISSING'])#j加一个类别
train_data[c] = train_data[c].fillna('MISSING')#加上这个类别
def boxplot(x, y, **kwargs):
sns.boxplot(x=x, y=y)
x=plt.xticks(rotation=90)
f = pd.melt(train_data, id_vars=['price'], value_vars=categorical_features)
g = sns.FacetGrid(f, col="variable", col_wrap=2, sharex=False, sharey=False, size=10)
g = g.map(boxplot, "value", "price")
catg_list = categorical_features
target = 'price'
for catg in catg_list :
sns.violinplot(x=catg, y=target, data=train_data)
plt.show()
categorical_features = ['model',
'brand',
'bodyType',
'fuelType',
'gearbox',
'notRepairedDamage']
# 类别特征的柱形图可视化
def bar_plot(x, y, **kwargs):
sns.barplot(x=x, y=y)
#x=plt.xticks(rotation=90)
f = pd.melt(train_data, id_vars=['price'], value_vars=categorical_features)
g = sns.FacetGrid(f, col="variable", col_wrap=2, sharex=False, sharey=False, size=5)
g = g.map(bar_plot, "value", "price")
#类别特征的每个类别频数可视化(count_plot)
def count_plot(x, **kwargs):
sns.countplot(x=x)
x=plt.xticks(rotation=90)
f = pd.melt(train_data, value_vars=categorical_features)
g = sns.FacetGrid(f, col="variable", col_wrap=2, sharex=False, sharey=False, size=5)
g = g.map(count_plot, "value")