数据分析二

一、数据处理

当数据量较大时,将数据所有信息输出到控制台中会显得过于冗杂,可通过查看部分数据信息,简要了解数据的特性。

(1)查看数据前5行和尾部倒数5行数据,列名和索引信息,数据行列形状

csv.head()#查看前几行   
csv.tail()#查看后几行
csv.columns#查看列名
csv.index#查看索引
csv.shape#查看形状

(2)查看各列数据描述性统计信息,如最小值、最大值、均值、标准差等

csv.describe()

(3)查看数据是否有缺失及每列数据的类型

csv.info()

缺失值处理
对Pandas做数据时不可避免会因为一些原因出现缺失值NaN(Not a number),比如两个DataFrame对象进行运算时对于无法匹配的位置就会出现缺失值。通过数据信息查看可知数据中存在缺失值,比如dataA、dataC、dataE各存在2个NaN,dataB、dataD、各存在1个NaN。

(1)Pandas包中isnull()和notnull()方法用于判断数据是否为缺失值,若是缺失值则isnull()返回值为True,notnull()返回值为False。

csv.isnull()

(2)由于isnull()和notnull()方法判断缺失值生成的是所有数据的True/False矩阵,对于庞大的Dataframe数据,很难一眼看出缺失值位置,可在df_csvload.isnull()矩阵基础上结合数据转置方法.T和筛选满足True值条件列方法.any(),查找出含有NaN值所在的行。

csv.isnull().T.any().T]#查看NAN值所在行

(3)对缺失值的处理的方法有删除和填充,此处通过DataFrame.dropna()方法将所有值都为缺失值的行删除,DataFrame.fillna()方法在列方向上对缺失值前值填充。


csv = csv.dropna(axis=0,how='all')#NAN值删除 行所有为NAN删除
csv.fillna(method='ffill',axis=0,inplace=True)#NAN值填充 列方向前值填充
csv[csv.isnull().values==True]#查看NAN值删除填充后值

二、数据重塑

一、stack

stack的计算机术语是“栈”,那么应用到DataFrame上,可以理解为将所有的列全部进行“入栈”操作(push)。可以看到,我们的DataFrame有以下列:['语文','英语','数学','物理'],把它们全部入栈,就是挨着把这些列一个个的压进去,最终就形成了一个新的索引列:['学科']

我们可以把stack操作叫做压缩,stack压缩操作带来的效果是:

  1. 由列变成了行:['语文','英语','数学','物理']这些列的数据,全部都变成了每一行。
  2. 数据由原来的“宽格式”变成了“厚格式”:也即全部的列宽度都压缩到了行厚度上面,全部的列名称组成了一列新的索引。

stack操作的时候,默认会滤除缺失NaN数据

二、unstack

unstack是stack的逆操作:出栈把“栈”里面的数据全部弹出来(pop)

我们可以把unstack操作叫做解压,同理unstack解压操作带来的效果就刚好和stack相反:

  1. 由行变成了列:['学科']索引列里面的每行数据,全部都变成了单独的一列。
  2. 数据由原来的“厚格式”变成了“宽格式”:也即全部的行厚度都释放到了列宽度上面,索引列中的全部成员都被分解成了单独的一列。

四、pivot

pivot---数据透视。这是excel的一大杀器!

(一)、unstack实现无索引解压

前面讲过了,unstack操作的效果是:索引列中的全部成员都被分解成了单独的一列。所以,unstack操作一般是要求要有索引列。但是有些时候,数据是没有明显的索引列的,

(二)、pivot实现无索引解压

上面的过程稍显复杂,于是Pandas定义一种快捷方法pivot来实现

   df=df.pivot(index=,columns=)

pivot本质上就是unstack的一种快捷方式,并不是一种新的重塑方法。二者的等价关系是:

pivot(index='目标索引列',columns='需要解压的列'])
==等价于==
set_index(['目标索引列','需要解压的列']).unstack('需要解压的列')

(三)、melt

pivot是unstack的快捷方式,那stack有没有类似的快捷等价方式呢?有,那就是melt。

 df=df.melt(id_vars=['学生'],var_name='科目',value_name='成绩')

 var_name参数用于指定压缩后的新列名称,value_name参数用于相应的数据列名称,通过这个操作,一步就直接到位

三、数据规整

数据连接
根据单个或者多个键(列)将不同的DataFrame的行进行连接

类似数据的连接操作

pd.merge:(left, right, how=‘inner’,on=None,left_on=None, right_on=None )

left:合并时左边的DataFrame

right:合并时右边的DataFrame

how:合并的方式,默认’inner’, ‘outer’, ‘left’, ‘right’

on:需要合并的列名,必须两边都有的列名,并以 left 和 right 中的列名的交集作为连接键

left_on: left Dataframe中用作连接键的列
关于how=‘inner’ ‘outer’ ‘left’ ‘right’
‘inner’ 是把两个表中相同列名中的相同的键索引进行连接 不会出现nan
‘outer’ 是把两个表中相同的列名中的所有对应关系都写入新表进行连接 会出现nan
‘left’ 是把左边的表作为基准 进行连接 就是说两个表相同的列名 最后保存下来的键会全部是左边的表中的
‘right’ 同理


 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值