用python做数据分析代码,python做简单的数据分析

大家好,本文将围绕如何用python做数据分析 代码展开说明,利用python进行数据分析代码是一个很多人都想弄明白的事情,想搞清楚用python做数据分析代码需要先了解以下几个事情。

这篇文章主要介绍了如何用python做数据分析 代码,具有一定借鉴价值,需要的朋友可以参考下。希望大家阅读完这篇文章后大有收获,下面让小编带着大家一起了解一下python创意编程作品

本篇文章分享数据分析中Python常用代码,包括数据预览、数据清洗、特征分析等,每一大类里面也会具体细分,尽可能全面、易懂,之后实际运用中需要哪种可以选择性参考运用。

文中会结合实际案例展示效果,数据集选用上次参加比赛的二手车价格预测为例Python简单代码画爱心

一、数据预览

数据预览,是数据分析的重要一步,数据分析前对数据集进行预览,才能更加了解整个数据结构,做到心中有数。

1.1查看数据表

shape:查看数据大小

# 输出数据的大小信息
print('Train data shape:',Train_data.shape)

Train data shape: (150000, 31) 代表Train data数据集有 150000行数据(不包含首行),31列字段,整体是150000 × 31.

dtyes:查看数据类型

Train_data.dtypes

columns:只查看列名

Train_data.columns

info:查看列名及NAN缺失信息

Train_data.info()

1.2预览数据

head:头

Train_data.head()   #默认显示5行

tail:尾

Train_data.tail()

append:头+尾

Train_data.head().append(Train_data.tail())

注:如果想显示中间隐藏的列...,可以添加如下代码

pd.set_option('display.max_column',None)    #展示所有列

1.3描述统计

describe:查看数值特征列的一些统计信息

Train_data.describe()

describe(include=['O']):查看object特征列的一些统计信息

describe(include=['O'])

二、数据清洗

2.1查看各列缺失值

查看缺失值:

Train_data.isnull().sum()

计算缺失率:

Train_data.describe().T.assign(missing_pct=Train_data.apply(lambda x :(len(x)-x.count())/len(x)))

缺失值可视化:

missing = Train_data.isnull().sum()
missing = missing[missing > 0]
missing.sort_values(inplace=True)
missing.plot.bar()

缺失值分布可视化:

msno.matrix(Train_data.sample(1000))

msno.bar(Train_data)

2.2异常值处理

截断异常值:

Train_data['power'][Train_data['power']>600] = 600
Train_data['power'][Train_data['power']<1] = 1

异常值一般通过describe查看数值分布,如最小值、最大值、中位数、上四位数、下四位数等,后再进行相应处理。

2.3对缺失值处理

指定值替换:

Train_data['notRepairedDamage'].replace('-', np.nan, inplace=True)  # 把‘ - ’替换为nan

众数mode填充:

Train_data.gearbox.fillna(Train_data.gearbox.mode()[0],inplace=True)
Train_data.bodyType.fillna(Train_data.bodyType.mode()[0],inplace=True)
Train_data.fuelType.fillna(Train_data.fuelType.mode()[0],inplace=True)

平均数mean/中位数median填充:

填充平均数用mean,填充中位数用median,本数据集由于不需要填充平均数和中位数,故不展示相应代码。如果需要用到,可以把上例中mode改为mean或median。注意众数填充一般用于定性变量,平均数/中位数填充一般用于定量变量,平均数容易受异常值影响,所以用平均数填充是要先处理异常值。

2.4重复值处理

duplicated查看是否存在重复值:

Train_data.duplicated().value_counts()

本数据集不存在重复值,如果存在重复值,可利用drop_duplicates,对其删除。

三、特征分析

特征分为类别特征数字特征

# 类型特征
categorical_features = Train_data.select_dtypes(include=[np.object])
categorical_features.columns
# 数字特征
numeric_features = Train_data.select_dtypes(include=[np.number])
numeric_features.columns

但此区别方式适用于没有直接label coding的数据,这里需要人为区分。

# 类型特征
categorical_features = ['name', 'model', 'brand', 'bodyType', 'fuelType', 'gearbox', 'notRepairedDamage', 'regionCode',]
# 数字特征
numeric_features = ['power', 'kilometer', 'v_0', 'v_1', 'v_2', 'v_3', 'v_4', 'v_5', 'v_6', 'v_7', 'v_8', 'v_9', 'v_10', 'v_11', 'v_12', 'v_13','v_14' ]

3.1类别特征分析

3.1.1 特征nunique分布

简版:

for fea in categorical_features:
    print(Train_data[fea].nunique())

详版:

for cat_fea in categorical_features:
    print(cat_fea + "的特征分布如下:")
    print("{}特征有个{}不同的值".format(cat_fea, Train_data[cat_fea].nunique()))
    print(Train_data[cat_fea].value_counts())

3.1.2 类别特征可视化

boxplot箱形图可视化:

categorical_features = [ 'brand','bodyType','fuelType','gearbox'] # 因为 name、model、 regionCode的类别太稀疏,这里我们只选择其中几各不稀疏的变量画一下
for c in categorical_features:
    Train_data[c] = Train_data[c].astype('category')
    if Train_data[c].isnull().any():
        Train_data[c] = Train_data[c].cat.add_categories(['MISSING'])
        Train_data[c] = Train_data[c].fillna('MISSING')

def boxplot(x, y, **kwargs):
    sns.boxplot(x=x, y=y)
    x=plt.xticks(rotation=90)

f = pd.melt(Train_data, id_vars=['price'], value_vars=categorical_features)
g = sns.FacetGrid(f, col="variable",  col_wrap=2, sharex=False, sharey=False, size=5)
g = g.map(boxplot, "value", "price")

violinplot小提琴图可视化:

catg_list = categorical_features
target = 'price'
for catg in catg_list :
    sns.violinplot(x=catg, y=target, data=Train_data)
    plt.show()

注:如果需要多图同时保存到本地,可以利用下面代码

catg_list = categorical_features
target = 'price'
for catg in catg_list :
    sns.violinplot(x=catg, y=target,data=Train_data)
    plt.savefig("C:/Users/dwhyx/temp{}.png".format(catg))  #输入地址,并利用format函数修改图片名称
    plt.clf() #需要重新更新画布,否则会出现同一张画布上绘制多张图片

3.2数字特征分析

3.2.1相关性分析

numeric_features.append('price')
price_numeric = Train_data[numeric_features]
correlation = price_numeric.corr()      #查看各数字特征与价格之间相关性
print(correlation['price'].sort_values(ascending = False),'\n')  

相关性热力图可视化

f , ax = plt.subplots(figsize = (8, 8))
plt.title('Correlation of Numeric Features with Price',y=1,size=16)
sns.heatmap(correlation,square = True,  vmax=0.8)

3.2.2查看数字特征的偏度和峰值

for col in numeric_features:
    print('{:15}'.format(col), 
          'Skewness: {:05.2f}'.format(Train_data[col].skew()) , 
          '   ' ,
          'Kurtosis: {:06.2f}'.format(Train_data[col].kurt())  
         )

3.2.3数字特征的分布可视化

f = pd.melt(Train_data, value_vars=numeric_features)
g = sns.FacetGrid(f, col="variable",  col_wrap=2, sharex=False, sharey=False)
g = g.map(sns.distplot, "value")

3.2.4数字特征相互之间的关系可视化

sns.set()
columns = ['price', 'v_12', 'v_8' , 'v_0', 'power', 'v_5',  'v_2', 'v_6', 'v_1', 'v_14']
sns.pairplot(Train_data[columns],size = 2 ,kind ='scatter',diag_kind='kde')
plt.show()

3.2.5多变量互相回归关系可视化

# 分离label即预测值
Y_train = Train_data['price']
#选取相关性强度前十的变量
fig, ((ax1, ax2), (ax3, ax4), (ax5, ax6), (ax7, ax8), (ax9, ax10)) = plt.subplots(nrows=5, ncols=2, figsize=(24, 20))
# ['v_12', 'v_8' , 'v_0', 'power', 'v_5',  'v_2', 'v_6', 'v_1', 'v_14', 'v_13']  #选取相关性强度前十的变量
v_12_scatter_plot = pd.concat([Y_train,Train_data['v_12']],axis = 1)
sns.regplot(x='v_12',y = 'price', data = v_12_scatter_plot,scatter= True, fit_reg=True, ax=ax1)

v_8_scatter_plot = pd.concat([Y_train,Train_data['v_8']],axis = 1)
sns.regplot(x='v_8',y = 'price',data = v_8_scatter_plot,scatter= True, fit_reg=True, ax=ax2)

v_0_scatter_plot = pd.concat([Y_train,Train_data['v_0']],axis = 1)
sns.regplot(x='v_0',y = 'price',data = v_0_scatter_plot,scatter= True, fit_reg=True, ax=ax3)

power_scatter_plot = pd.concat([Y_train,Train_data['power']],axis = 1)
sns.regplot(x='power',y = 'price',data = power_scatter_plot,scatter= True, fit_reg=True, ax=ax4)

v_5_scatter_plot = pd.concat([Y_train,Train_data['v_5']],axis = 1)
sns.regplot(x='v_5',y = 'price',data = v_5_scatter_plot,scatter= True, fit_reg=True, ax=ax5)

v_2_scatter_plot = pd.concat([Y_train,Train_data['v_2']],axis = 1)
sns.regplot(x='v_2',y = 'price',data = v_2_scatter_plot,scatter= True, fit_reg=True, ax=ax6)

v_6_scatter_plot = pd.concat([Y_train,Train_data['v_6']],axis = 1)
sns.regplot(x='v_6',y = 'price',data = v_6_scatter_plot,scatter= True, fit_reg=True, ax=ax7)

v_1_scatter_plot = pd.concat([Y_train,Train_data['v_1']],axis = 1)
sns.regplot(x='v_1',y = 'price',data = v_1_scatter_plot,scatter= True, fit_reg=True, ax=ax8)

v_14_scatter_plot = pd.concat([Y_train,Train_data['v_14']],axis = 1)
sns.regplot(x='v_14',y = 'price',data = v_14_scatter_plot,scatter= True, fit_reg=True, ax=ax9)

v_13_scatter_plot = pd.concat([Y_train,Train_data['v_13']],axis = 1)
sns.regplot(x='v_13',y = 'price',data = v_13_scatter_plot,scatter= True, fit_reg=True, ax=ax10)

上面代码是自己整理的学习笔记,后面特征分析大部分是参考大神:AI蜗牛车,这里再次简单重新整理。本文涉及代码比较多,实际数据分析中不完全都运用,具体看数据集及分析的目的,有针对性分析。

Python经验分享

学好 Python 不论是就业还是做副业赚钱都不错,但要学会 Python 还是要有一个学习规划。最后大家分享一份全套的 Python 学习资料,给那些想学习 Python 的小伙伴们一点帮助!

Python学习路线

这里把Python常用的技术点做了整理,有各个领域的知识点汇总,可以按照上面的知识点找对应的学习资源。
在这里插入图片描述

学习软件

Python常用的开发软件,会给大家节省很多时间。
在这里插入图片描述

学习视频

编程学习一定要多多看视频,书籍和视频结合起来学习才能事半功倍。
在这里插入图片描述

100道练习题

在这里插入图片描述

实战案例

光学理论是没用的,学习编程切忌纸上谈兵,一定要动手实操,将自己学到的知识运用到实际当中。
在这里插入图片描述
最后祝大家天天进步!!

上面这份完整版的Python全套学习资料已经上传至CSDN官方,朋友如果需要可以直接微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值