left join 后数据变多_使用Pandas数据处理与分析

前言:这是关于个人关于对pandas可以进行的数据处理和数据分析的见解的初版,其中肯定不乏一些错误之处,希望大家能多多指正。

首先导入本文所需要的库:

import numpy as npimport pandas as pdimport matplotlib.pyplot as plt

这里主要利用pandas从六个方面来对数据进行操作:

1.导入数据

自我生成数据

pandas 有两个常用的数据结构:Series 和 DataFrame,可以用来生成你想要的数组型对象。

pd.Series(data=None, index=None, dtype=None, name=None, copy=False, fastpath=False)    pd.DataFrame(data=None, index=None, columns=None, dtype=None, copy=False)

外部加载数据

但是,在一般的数据处理分析中,往往自我生成数据情况较少,更多的是导入数据。pandas提供了一些用于将表格型数据读取为DataFrame对象的函数。

这里导入本次需要的用到的数据(该数据来自天猫爬取的网页数据,有兴趣的可以自己去爬取,这里只是暂做示例):

data = pd.read_excel('F:/tianmao data/computer data.xlsx')

表1对我们常用的文件格式进行了总结,其中pd.read_csv()和pd.read_excel()可能会是你今后用得最多的。

f992616d71c5df1dd2c1b36ed74edbec.png

这些pandas的解析函数参数较为复杂,具体了解可以在pandas官网上自行查阅,或者可以再Jupyter Notebook 中采用help(pd.read_excel)命令查阅。

2.审阅数据

在成功导入数据以后,需要对数据进行审阅,目的是,了解数据结构、类型、大小等情况。方便理解数据和为后续处理分析打下基础。

(1).查看前5行(默认前5行,你也可以在括号里输入你想要的行数):

data.head()

(2).查看倒数5行:

data.tail()

(3).查看维度信息:

data.shape

(4).查看每一列的数据格式:

data.dtypes

(5).查看数据表基本信息(维度、列名称、数据格式、所占空间等):

data.info()

(6).查看某一列具体信息:

#两种处理效果一样data['月销量']data.月销量

(7).也可以按索引提取单行或多行数值:

#提取第4行data.iloc[4]#提取到第4行data.iloc[0:4]#提取所有行,0到4列(也可以反过来)data.iloc[:,0:4]#提取第0、2、4行,第3、4列data.iloc[[0,2,4].[3,4]]

注:数据的选取较为灵活,方法也较多,诸如:data["你要选取的列名称"],data.loc[],data.iloc[],data.ix[]等等。具体可以上官网了解一下他们的区别和作用,这里就不再继续详述了。

(8).将数据进行排序

#按销量的大小进行排序data=data.sort_values(by=['月销量'],ascending=False)

(9).查看基本的统计信息(最大值、最小值、平均值、中位值、四分位值、标准差等):

data.describe()

3.数据预处理

说完对表中的数据进行简单的查看,下面进行对数据进行的最关键操作:数据预处理

(1) 数据集成

由于我的数据较为规整,不需要合并和拼接,这里只是简单介绍一下原理。

1.pandas.merge可根据一个或多个键将不同DataFrame中的行连接起来。SQL或其他关系型数据库的用户对此应该会比较熟悉,因为它实现的就是数据库的join操作。

pandas.merge(left, right, how='inner', on=None, left_on=None, right_on=None, left_index=False, right_index=False, sort=False, suffixes=('_x', '_y'), copy=True, indicator=False, validate=None)

该函数主要用于通过一个或多个键将两个数据集的行连接起来,类似于 SQL 中的 JOIN。典型应用场景是,针对同一个主键存在两张包含不同字段的表,现在我们想把他们整合到一张表里。在此典型情况下,结果集的行数并没有增加,列数则为两个元数据的列数和减去连接键的数量。

2.pandas.concat该方法相当于数据库中的全连接(UNION ALL),可以指定按某个轴进行连接,也可以指定连接的方式join(outer,inner 只有这两种)。与数据库不同的是concat不会去重,要达到去重的效果可以使用drop_duplicates方法。

pandas.concat(objs, axis=0, join='outer', join_axes=None, ignore_index=False, keys=None,levels=None, names=None,verify_integrity=False, sort=None, copy=True)

轴向连接pd.concat()只是单纯的把两个表拼在一起,这个过程也被称作连接(concatenation)。这个函数的关键参数应该是 axis,用于指定连接的轴向。在默认的 axis=0 情况下,pd.concat([data1,data2])函数的效果与data1.append(data2)是相同的;而在 axis=1 的情况下,pd.concat([data1,data2],axis=1)的效果与pd.merge(data1,data2,left_index=True,right_index=True,how='outer')是相同的。可以理解为 concat 函数使用索引作为“连接键”。

3.join方法提供了一个简便的方法用于将两个DataFrame中的不同的列索引合并成为一个DataFrame。

DataFrame.join(other, on=None, how='left', lsuffix='', rsuffix='', sort=False)

其中参数的意义与merge方法基本相同,只是join方法默认为左外连接how=left。

4.DataFrame.combine_first(other)可以将重复数据拼接在一起,用一个对象中的值填充另一个对象中的缺失值。

5.update如果要用一张表中的数据来更新另一张表的数据则可以用update来实现

DataFrame.update(other, join='left', overwrite=True, filter_func=None, raise_conflict=False)

注:使用combine_first会只更新左表的nan值。而update则会更新左表的所有能在右表中找到的值(两表位置相对应)。

具体了解可以在pandas官网上自行查阅,或者可以再Jupyter Notebook 中采用help()命令查阅。

(2) 数据清洗

数据整理

1.字符串处理

原始数据中,有很多字符串类型的数据,不便于分析,利用字符串函数对数据进行处理。

#拆分“当前时间”变得标准化data['当前时间']=data['当前时间'].str.split(' ',expand=True)[0]#将“收藏”字符串中的数值型数据取出来data['收藏']=data['收藏'].str.extract('(d+)')#同理“库存”只要数据data['库存']=data['库存'].str.extract('(d+)')#同理“天猫积分”只要数据data['天猫积分']=data['天猫积分'].str.extract('(d+)')#“现价”中含有区间值,进行拆分,并取最低价data['现价']=data['现价'].str.split('-',expand=True)[0]#同理,“原价”拆分,与“现价”保持一致data['原价']=data['原价'].str.split('-',expand=True)[0]

2.数据类型处理

将处理完的字符串数据,转换成有利于后续分析的数据。

#时间序列处理data['当前时间']=pd.to_datetime(data['当前时间'])#数据类型处理data['现价']=data['现价'].astype(np.float64) data['原价']=data['原价'].astype(np.float64) data['收藏']=data['收藏'].astype(np.float64) data['库存']=data['库存'].astype(np.float64) data['天猫积分']=data['天猫积分'].astype(np.float64) 

缺失值处理:

1.查找缺失值。看那些列存在缺失值:

data.isnull().any()

2.定位缺失值。将含有缺失值的行筛选出来:

#筛选出任何含有缺失值的数据data[data.isnull().values==True]#统计某一列缺失值的数量data['现价'].isnull().value_counts()#筛选出某一列含有缺失值的数据data[data['原价'].isnull().values==True]

3.删除缺失值:

data.dropna(axis=0, how='any', thresh=None, subset=None, inplace=False)

#删除月销量中的缺失值 data.dropna(axis=0,subset=["月销量"]) 可以利用subset和thresh参数来删除你需要删除的缺失值,inplace则表示是否在原表上替代。

4.填充缺失值:

固定值填充:

data.fillna(value=None, method=None, axis=None, inplace=False, limit=None, downcast=None, **kwargs)#利用月销量的均值来对NA值进行填充data["月销量"].fillna(data["月销量"].mean())#利用月销量的中位数来对NA值进行填充data["月销量"].fillna(data["月销量"].median())

当然,缺失值的处理方法远不止这几种,这里只是简单的介绍一般操作,还有其他更高级的操作,比如:随机森林插值、拉格朗日插值、牛顿插值等等。针对这些高难度的插值方法,有兴趣可以自我去了解了解。

重复值处理

定位重复值:

#找出"店铺名称"存在重复的数据data[data.duplicated(subset=["店铺名称"], keep='first')]删除重复值:#删除“店铺名称”存在重复的数据data.drop_duplicates(subset=["店铺名称"], keep='first', inplace=False)

异常值处理:

在进行异常值处理之前,需先进行异常值检验,比较常用的有两种方法:

数据服从正态分布,采用3σ原则。

数据不服从正太分布,采用箱线图检验。

3σ原则:

#插入一列three_sigma又来表示是否是异常值data['three_sigma'] = data['月销量'].transform( lambda x: (x.mean()-3*x.std()>x)|(x.mean()+3*x.std() upper) #筛选异常数据data[data['qutlier'] ==True]#过滤掉异常数据qutlier_data=data[data['qutlier'] ==False]

细心的你可能会发现,采用两种方法来处理异常数据的结果往往是不同的,箱线图法更为严格(有兴趣的话,你可以去了解了解其中的原理)。

多余行/多余列删除

data.drop(labels=None, axis=0, index=None, columns=None, level=None, inplace=False, errors='raise')

该操作主要用于不需要的行(默认删除行)或者列进行删除,从而有利于数据精简。

(3) 数据变换

数据变换主要有以下几点内容:

1.简单函数变换。例如对数据开方、平方、取对数、倒数、差分、指数等。目的是为了后续分析提供想要的数据和方便分析(根据实际情况而定)。

#由于“累计评价”的值太大,我们新增一列对“累计评价”取对数处理data['对数_累计评价']=np.sqrt(data['累计评价'])#插入一列,计算“优惠力度”data['优惠力度']=data1['现价']/data1['原价']

2.数据标准化。数据标准化是为了消除数据的量纲影响,为后续许多算法分析必要条件。常见的标准化方法很多,这里只是简单介绍一下:Min-Max标准化

#使不使用函数,根据你的理解都可以,这里使用函数data['标准化月销量']=data.月销量.transform(lambda x : (x-x.min())/(x.max()-x.min()))Z-score标准化法data['Z_月销量']=data['月销量'].transform(lambda x : (x-x.mean())/x.std())

3.数据离散化处理。连续值经常需要离散化或者分箱,方便数据的展示和理解,以及结果的可视化。比如最常见就是日常生活中对年龄的离散化,将年龄分为:幼儿、儿童、青年、中年、老年等。

#新增一列,将月销量划分成10个等级data['data_cut']=pd.cut(data['月销量'],bins=10,labels=[1,2,3,4,5,6,7,8,9,10])#新增一列,将月销量划分成10个等级data['data_qcut']=pd.qcut(data['月销量'],q=10,labels=[1,2,3,4,5,6,7,8,9,10])

这两种都是对数据进行离散化,但通过结果仔细一看,你会发现,这两者的结果是不同的。说简单点就是,一个是等距分箱,一个是等频分享(分位数分箱),往往后者更常用。

(4) 数据精简

数据精简在数据分析和数据挖掘中至关重要,数据挖掘和分析的往往是海量数据,其海量特征主要体现在两个方面:第一,样本量庞大;第二,变量个数较多。海量数据无疑会影响建模的效率,为此主要的应对措施有:

  1. 压缩样本量。主要是指随机抽样
  2. 简约变量值。主要是指离散化处理
  3. 变量降维。主要是将许多变量用少数变量来分析(诸如因子分析等)

变量的离散化处理前面已经介绍,这里从随机抽样入手。关于变量降维,后续关于算法的学习在具体介绍。

#随机不重复抽取100行数据样本data.sample(n=100)

关于随机抽样函数如下:

  • sample(n=None, frac=None, replace=False, weights=None, random_state=None, axis=None)
  • n和frac作用是相同的,n是抽样个数,frac是抽样比例(浮点数);
  • replace:是否为有放回抽样,取replace=True时为有放回抽样;
  • weights这个是每个样本的权重,具体可以看官方文档说明。

4.数据分析

终于来到了数据分析环节,前面所做的工作全是为了数据分析和数据可视化做准备。这里本文只是进行一些简单的数据分析,关于模型啊,算法啊……这些,这里不做介绍,在掌握这些简单的分析之后,可以去理解更高深的分析方法。

(1) 描述性分析

1.集中趋势 表示数据集中趋势的指标有:平均值、中位数、众数、第一四分位数和第三四分位数。

#通过定义一个函数,来查看数据的集中趋势def f(x):    return pd.DataFrame([x.mean(),x.median(),x.mode(),x.quantile(0.25),x.quantile(0.75)],    index=['mean','median','mode','Q1','Q3'])#调用函数f(data['月销量'])

2.离散程度 表示数据离散程度的有:方差,标准差,极差,四分位间距。

#通过定义一个函数,来查看数据的离散程度def k(x):    return pd.DataFrame([x.var(),x.std(),x.max()-x.min(),x.quantile(0.75)-x.quantile(0.25)],                        index=['var','std','range','IQR'])#调用函数k(data['现价'])

3.分布形态

表示数据分布的有:偏度和峰度。

def g(x):    return pd.DataFrame([x.skew(),x.kurt()],                        index=['skew','kurt'])

(2) 相关性分析

研究两个或两个以上随机变量之间相互依存关系的方向和密切程度的方法。线性相关关系主要采用皮尔逊(Pearson)相关系数r来度量连续变量之间线性相关强度;r>0,线性正相关;r<0,线性负相关;r=0,两个变量之间不存在线性关系,但是,并不代表两个变量之间不存在任何关系,有可能是非线性相关。

#相关系数矩阵data.corr()#协差阵data.cov()#任意两列相关系数data['月销量'].corr(data['累计评价']#因变量与所有变量的相关性data.corrwith(data['月销量'])

5.数据可视化

数据可视化的作用很多,而最常用的一般有两种功能:其一是对原始数据的探索性分析(EDA),其二是对结果数据的数据分析结果呈现。

1.探索性分析

直方图

直方图是用来整理计量值的观测数据,分析其分布状态的统计方法,用于对总体的分布特征进行推断。直方图的作用很多,统计中最一般用来检验数据分布的类型,分析数据是否服从正态分布,判断数据有无异常等。

简单代码如下:

from pylab import *mpl.rcParams['font.sans-serif'] = ['SimHei'] #指定默认字体 #解决保存图像是负号'-'显示为方块的问题mpl.rcParams['axes.unicode_minus'] = False plt.subplots_adjust(wspace =0.2, hspace =1)plt.subplot(321)plt.hist(data['月销量'])plt.xlabel('月销量')plt.subplot(322)plt.hist(data['现价'])plt.xlabel('现价')plt.subplot(323)plt.hist(data['原价'])plt.xlabel('原价')plt.subplot(324)plt.hist(data['累计评价'])plt.xlabel('累计评价')plt.subplot(325)plt.hist(data['收藏'])plt.xlabel('收藏')plt.subplot(326)plt.hist(data['天猫积分'])plt.xlabel('天猫积分')plt.savefig('hist1.png',dpi=200)plt.show()
4709ded72fdb9433e9e160b4911c06e0.png

显然数据不服从正态分布,数据波动大,异常值突出等情况明显。

箱线图

箱线图,是利用数据中的五个统计量:最小值、第一四分位数、中位数、第三四分位数与最大值来描述数据的一种方法,它也可以粗略地看出数据是否具有有对称性,分布的分散程度等信息,特别可以用于对数据异常值的诊断。

plt.subplots_adjust(wspace =0.2, hspace =1)plt.subplot(321)plt.boxplot(data['月销量'])plt.xlabel('月销量')plt.subplot(322)plt.boxplot(data['现价'])plt.xlabel('现价')plt.subplot(323)plt.boxplot(data['原价'])plt.xlabel('原价')plt.subplot(324)plt.boxplot(data['累计评价'])plt.xlabel('累计评价')plt.subplot(325)plt.boxplot(data['收藏'])plt.xlabel('收藏')plt.subplot(326)plt.boxplot(data['天猫积分'])plt.xlabel('天猫积分')plt.savefig('boxplot1.png',dpi=200)plt.show()
9c95c6adbda25da46b5aa0767dd369f5.png

由此可见,数据预处理是多么重要。

2.数据分析结果呈现

条形图(柱状图)

条形图(柱状图)能体现每组中的具体数据,易比较数据之间的差别。

d2ae3f58cc1b21132e345d07b4306f70.png

散点图

利用散点(坐标点)的分布形态反映变量统计关系的一种图形。特点是能直观表现出影响因素和预测对象之间的总体关系趋势。优点是能通过直观醒目的图形方式反映变量间关系的变化形态,以便决定用何种数学表达方式来模拟变量之间的关系。散点图不仅可传递变量间关系类型的信息,也能反映变量间关系的明确程度。

plt.subplots_adjust(wspace =0.2, hspace =1)plt.subplot(321)plt.scatter(data1['现价'],data1['月销量'])plt.xlabel('现价')plt.ylabel('月销量')plt.subplot(322)plt.scatter(data1['优惠力度'],data1['月销量'])plt.xlabel('优惠力度')plt.ylabel('月销量')plt.subplot(323)plt.scatter(data1['累计评价'],data1['月销量'])plt.xlabel('累计评价')plt.ylabel('月销量')plt.subplot(324)plt.scatter(data1['收藏'],data1['月销量'])plt.xlabel('收藏')plt.ylabel('月销量')plt.subplot(325)plt.scatter(data1['天猫积分'],data1['月销量'])plt.xlabel('天猫积分')plt.ylabel('月销量')plt.subplot(326)plt.scatter(data1['店铺描述'],data1['月销量'])plt.xlabel('店铺描述')plt.ylabel('月销量')plt.savefig('scatter1.png',dpi=200)plt.show()
cda39f03b6e041b926ab64d997d48fd1.png

注:这里的data1 是我经过上述标准化之后的数据

链接:https://www.jianshu.com/p/9f265134c816 作者:平凡简单的执着

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值