python数据预处理

Ⅰ.数据源

catering_sale.xls
catering_sale_all.xls

Ⅱ.导入库

import pandas as pd
import numpy as np
from scipy import stats
import matplotlib.pyplot as plt
import seaborn as sns
from sklearn.preprocessing import MinMaxScaler, StandardScaler

# 避免画图时无法显示中文(中文部分以正方格显示)
plt.rcParams['font.sans-serif']=['SimHei']
plt.rcParams['axes.unicode_minus']=False

# 显示所有的列,而不是以……显示
pd.set_option('display.max_columns', None)
# 显示所有的行,而不是以……显示
pd.set_option('display.max_rows', None)
# 不自动换行显示
pd.set_option('display.width', None)

Ⅲ.读取数据

# 读取文件
catering_sale=pd.read_excel('./data/catering_sale.xls')

Ⅳ.数据缺失值处理

# 判断是否存在缺失值
print(catering_sale.info(),'\n')
# print(np.isnan(catering_sale).any(),'\n')
catering_sale2=catering_sale.dropna(axis=0)
print(catering_sale2.info(),'\n')

输出结果如下:

<class 'pandas.core.frame.DataFrame'>
RangeIndex: 201 entries, 0 to 200
Data columns (total 2 columns):
 #   Column  Non-Null Count  Dtype         
---  ------  --------------  -----         
 0   日期      201 non-null    datetime64[ns]
 1   销量      200 non-null    float64       
dtypes: datetime64[ns](1), float64(1)
memory usage: 3.3 KB
None 

<class 'pandas.core.frame.DataFrame'>
Int64Index: 200 entries, 0 to 200
Data columns (total 2 columns):
 #   Column  Non-Null Count  Dtype         
---  ------  --------------  -----         
 0   日期      200 non-null    datetime64[ns]
 1   销量      200 non-null    float64       
dtypes: datetime64[ns](1), float64(1)
memory usage: 4.7 KB
None 

观察可知,【销量】存在一个缺失值,本例将缺失值所在行进行删除处理

Ⅴ.数据特征分析

# 数据特征分析
y=catering_sale2.iloc[:,1]
print(catering_sale2.describe(),'\n')
m=stats.mode(y)
r=np.max(y)-np.min(y)
cv=np.std(y)/np.mean(y)
n,(smin,smax),sm,sv,ss,sk=stats.describe(y)
print(f"统计量:{n},最小值:{smin},最大值:{smax},极差:{r},众数:{m},均值:{sm},方差:{sv},偏度:{ss},峰度:{sk},变异系数:{cv}\n")

输出结果如下:

                销量
count   200.000000
mean   2755.214700
std     751.029772
min      22.000000
25%    2451.975000
50%    2655.850000
75%    3026.125000
max    9106.440000 

统计量:200,最小值:22.0,最大值:9106.44,极差:9084.44,众数:ModeResult(mode=array([2618.2]), count=array([2])),均值:2755.2146999999995,方差:564045.7182129748,偏度:3.0384935298149753,峰度:29.36759633770712,变异系数:0.2719025288924932

Ⅵ.数据异常值处理

# 画箱线图
y=np.array(y)
def boxplot(y,title):
    plt.style.use('ggplot')
    plt.subplots()
    plt.boxplot(y,patch_artist=True,showmeans=True,showfliers=True,medianprops={'color':'yellow'},flierprops={'markerfacecolor':'red'},labels=[''])
    plt.xlabel('销量')
    plt.text(1.05,3850,'上边缘')
    plt.text(1.05,1780,'下边缘')
    plt.text(1.1,3000,'上四分位数Q3')
    plt.text(0.8,2600,'中位数Q2')
    plt.text(1.1,2300,'下四分位数Q1')
    plt.text(1.05,6500,'异常值')
    plt.title(f'{title}箱线图')
    plt.show()

# 计算上下四分位数
q1=np.quantile(y,q=0.25)
q3=np.quantile(y,q=0.75)
# 异常值判断标准,1.5倍的四分位差 计算上下须对应的值
low_quantile=q1-1.5*(q3-q1)
high_quantile=q3+1.5*(q3-q1)
print(f'下四分位数Q1:{q1},上四分位数Q3:{q3},下边缘:{low_quantile},上边缘:{high_quantile}\n')

y2=[]
for i in y:
    if i>high_quantile:
        i=high_quantile
        y2.append(i)
    elif i<low_quantile:
        i=low_quantile
        y2.append(i)
    else:
        y2.append(i)

boxplot(y,title='异常值处理前')
boxplot(y2,title='异常值处理后')

输出结果如下:
异常值处理前箱线图

下四分位数Q1:2451.975,上四分位数Q3:3026.125,下边缘:1590.7499999999998,上边缘:3887.3500000000004

观察可知,箱线图上下边缘存在异常值,本例通过四分位法对异常值进行处理,即:超出上边缘的异常值让其落在上边缘,低于下边缘的异常值让其落在下边缘

输出结果如下:
异常值处理后箱线图

Ⅶ.数据标准化/归一化处理

# 标准化处理
catering_sale_all=pd.read_excel('./data/catering_sale_all.xls',index_col=0)
# 方法一:归一化处理
normalization_data1=MinMaxScaler().fit_transform(catering_sale_all)
normalization_data1=[[round(j,2) for j in normalization_data1[i]] for i in range(len(normalization_data1))]
normalization_data1=np.array(normalization_data1)
# 方法二:标准化处理
normalization_data2=StandardScaler().fit_transform(catering_sale_all)
normalization_data2=[[round(j,2) for j in normalization_data2[i]] for i in range(len(normalization_data2))]
normalization_data2=np.array(normalization_data2)
print(f'方法一:归一化处理:\n{normalization_data1}\n方法二:标准化处理:\n{normalization_data2}')

输出结果如下:

方法一:归一化处理:
[[1.   0.1  0.4  1.   0.9  0.83 0.94 0.45 0.64 1.  ]
 [0.57 1.   1.   0.48 0.5  0.58 1.   0.73 1.   0.39]
 [0.5  0.3  0.8  0.48 0.4  0.   0.33 0.55 0.64 0.22]
 [0.43 0.1  0.2  0.   0.6  0.5  0.44 0.73 1.   0.39]
 [0.07 0.5  0.9  0.24 0.8  0.58 0.89 0.55 0.91 0.43]
 [0.71 0.5  0.9  0.62 0.4  0.5  0.61 0.55 0.18 0.22]
 [0.43 0.2  0.9  0.24 0.1  0.33 0.5  0.27 0.64 0.13]
 [0.43 0.7  0.9  0.14 0.3  0.42 0.28 0.64 0.73 0.04]
 [0.21 0.3  0.4  0.   0.1  0.08 0.22 0.   0.36 0.26]
 [0.43 0.6  0.9  0.14 0.4  0.33 0.28 0.36 0.45 0.22]
 [0.21 0.2  0.4  0.29 0.   0.33 0.39 0.   0.   0.26]
 [0.14 0.4  0.   0.19 0.4  0.5  0.78 0.36 0.91 0.22]
 [0.43 0.2  0.7  0.29 0.7  0.42 0.72 0.36 0.55 0.48]
 [0.5  0.3  0.6  0.14 1.   0.83 0.83 0.36 0.09 0.43]
 [0.71 0.7  0.8  0.33 0.5  0.67 0.39 0.64 0.55 0.48]
 [0.07 0.3  0.8  0.38 0.5  0.33 0.5  0.09 0.73 0.3 ]
 [0.21 0.7  0.6  0.29 0.7  0.08 0.39 0.82 0.27 0.39]
 [0.43 1.   0.   0.43 0.3  0.5  0.   0.   0.82 0.17]
 [0.   0.5  0.9  0.48 0.9  0.42 0.67 0.   0.73 0.3 ]
 [0.36 0.2  0.5  0.81 0.1  0.75 0.39 0.18 0.45 0.3 ]
 [0.57 0.1  0.7  0.24 0.3  0.42 0.44 0.18 0.64 0.22]
 [0.57 0.1  0.1  0.57 0.3  0.92 0.72 0.18 0.27 0.17]
 [0.07 0.2  0.6  0.19 0.2  0.58 0.44 0.64 0.36 0.04]
 [0.29 0.   0.2  0.19 0.8  1.   0.28 0.64 0.55 0.  ]
 [0.36 0.3  0.8  0.52 0.4  0.67 0.33 0.64 0.64 0.09]
 [0.07 0.5  0.8  0.29 0.3  0.42 0.39 0.45 0.64 0.3 ]
 [0.21 0.2  0.3  0.38 0.3  0.33 0.44 1.   0.64 0.3 ]
 [0.36 0.   0.7  0.33 0.4  0.67 0.39 0.45 0.64 0.22]
 [0.36 0.1  0.3  0.29 0.2  0.08 0.28 0.55 0.27 0.22]]
方法二:标准化处理:
[[ 2.81 -0.95 -0.64  3.05  1.77  1.42  1.93  0.11  0.3   3.89]
 [ 0.9   2.41  1.39  0.62  0.23  0.4   2.17  1.15  1.74  0.59]
 [ 0.58 -0.21  0.71  0.62 -0.16 -1.98 -0.68  0.45  0.3  -0.36]
 [ 0.26 -0.95 -1.32 -1.59  0.61  0.06 -0.2   1.15  1.74  0.59]
 [-1.33  0.54  1.05 -0.49  1.38  0.4   1.69  0.45  1.38  0.82]
 [ 1.54  0.54  1.05  1.28 -0.16  0.06  0.51  0.45 -1.5  -0.36]
 [ 0.26 -0.58  1.05 -0.49 -1.32 -0.62  0.03 -0.58  0.3  -0.83]
 [ 0.26  1.29  1.05 -0.93 -0.55 -0.28 -0.92  0.8   0.66 -1.3 ]
 [-0.69 -0.21 -0.64 -1.59 -1.32 -1.64 -1.15 -1.62 -0.78 -0.12]
 [ 0.26  0.92  1.05 -0.93 -0.16 -0.62 -0.92 -0.24 -0.42 -0.36]
 [-0.69 -0.58 -0.64 -0.27 -1.7  -0.62 -0.44 -1.62 -2.22 -0.12]
 [-1.01  0.17 -2.   -0.71 -0.16  0.06  1.22 -0.24  1.38 -0.36]
 [ 0.26 -0.58  0.37 -0.27  1.   -0.28  0.98 -0.24 -0.06  1.06]
 [ 0.58 -0.21  0.04 -0.93  2.15  1.42  1.46 -0.24 -1.86  0.82]
 [ 1.54  1.29  0.71 -0.05  0.23  0.74 -0.44  0.8  -0.06  1.06]
 [-1.33 -0.21  0.71  0.18  0.23 -0.62  0.03 -1.28  0.66  0.11]
 [-0.69  1.29  0.04 -0.27  1.   -1.64 -0.44  1.49 -1.14  0.59]
 [ 0.26  2.41 -2.    0.4  -0.55  0.06 -2.1  -1.62  1.02 -0.59]
 [-1.65  0.54  1.05  0.62  1.77 -0.28  0.74 -1.62  0.66  0.11]
 [-0.05 -0.58 -0.3   2.16 -1.32  1.08 -0.44 -0.93 -0.42  0.11]
 [ 0.9  -0.95  0.37 -0.49 -0.55 -0.28 -0.2  -0.93  0.3  -0.36]
 [ 0.9  -0.95 -1.66  1.06 -0.55  1.75  0.98 -0.93 -1.14 -0.59]
 [-1.33 -0.58  0.04 -0.71 -0.93  0.4  -0.2   0.8  -0.78 -1.3 ]
 [-0.37 -1.33 -1.32 -0.71  1.38  2.09 -0.92  0.8  -0.06 -1.54]
 [-0.05 -0.21  0.71  0.84 -0.16  0.74 -0.68  0.8   0.3  -1.07]
 [-1.33  0.54  0.71 -0.27 -0.55 -0.28 -0.44  0.11  0.3   0.11]
 [-0.69 -0.58 -0.98  0.18 -0.55 -0.62 -0.2   2.18  0.3   0.11]
 [-0.05 -1.33  0.37 -0.05 -0.16  0.74 -0.44  0.11  0.3  -0.36]
 [-0.05 -0.95 -0.98 -0.27 -0.93 -1.64 -0.92  0.45 -1.14 -0.36]]

Ⅷ.数据相关性分析

# 相关性分析
pearson=catering_sale_all.corr(method='pearson')
print('相关性矩阵:\n',pearson)
y2=catering_sale_all.iloc[:,1:]
# 相关性矩阵散点图
# sns.pairplot(y2,kind='reg',diag_kind='hist')
# plt.title('相关性矩阵散点图')
# plt.show()
# 相关性矩阵热力图
sns.heatmap(pearson,square=True,annot=True)
plt.title('相关性矩阵热力图')
plt.show()

输出结果如下:
相关性矩阵热力图

相关性矩阵:
            百合酱蒸凤爪    翡翠蒸香茜饺   金银蒜汁蒸排骨     乐膳真味鸡     蜜汁焗餐包      生炒菜心    铁板酸菜豆腐     香煎韭菜饺     香煎罗卜糕    原汁原味菜心
百合酱蒸凤爪   1.000000  0.009206  0.016799  0.455638  0.126700  0.308496  0.204898  0.127448 -0.090276  0.428316
翡翠蒸香茜饺   0.009206  1.000000  0.304434 -0.012279  0.066560 -0.180446 -0.026908  0.062344  0.270276  0.020462
金银蒜汁蒸排骨  0.016799  0.304434  1.000000  0.035135  0.122710 -0.184290  0.187272  0.121543  0.077808  0.029074
乐膳真味鸡    0.455638 -0.012279  0.035135  1.000000  0.089602  0.325462  0.297692 -0.068866 -0.030222  0.421878
蜜汁焗餐包    0.126700  0.066560  0.122710  0.089602  1.000000  0.361068  0.528772  0.219578  0.200550  0.516849
生炒菜心     0.308496 -0.180446 -0.184290  0.325462  0.361068  1.000000  0.369787  0.038233  0.049898  0.122988
铁板酸菜豆腐   0.204898 -0.026908  0.187272  0.297692  0.528772  0.369787  1.000000  0.095543  0.157958  0.567332
香煎韭菜饺    0.127448  0.062344  0.121543 -0.068866  0.219578  0.038233  0.095543  1.000000  0.178336  0.049689
香煎罗卜糕   -0.090276  0.270276  0.077808 -0.030222  0.200550  0.049898  0.157958  0.178336  1.000000  0.088980
原汁原味菜心   0.428316  0.020462  0.029074  0.421878  0.516849  0.122988  0.567332  0.049689  0.088980  1.000000
评论 18
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值