《利用Python进行数据分析》第八章---数据规整:连接、联合与重塑2


前言

这篇文章将介绍数据的重塑和透视操作。昨晚有和舍友讨论过,数据挖掘和数据分析是不是一回事。经过一顿概述学习,数据挖据与数据分析虽然有很多相似之处,但终究还是存在着一定的区别:
1.数据分析讲究的是利用统计分析工具进行观察和处理数据,而数据挖掘是从数据中发现知识规则
2.“数据分析”不能建立数学模型,需要人工建模,而“数据挖掘”直接完成了数学建模,可通过机器学习自动建立输入与输出的函数关系,根据知识规则得出的“规则”,给定一组输入参数,就可以得出一组输出量。
3.“数据分析”主要采用对比分析、分组分析、交叉分析、回归分析等分析方法,通过得到的指标统计量结果,如总和、平均值等,而这些指标数据都需要与业务结合进行解读才能发挥出数据的价值和作用。而“数据挖掘”主要侧重解决分类、聚类、关联和预测四类问题,通过采用决策树、神经网络、关联规则、聚类分析、机器学习等方法进行挖掘,输出模型或规则并且可相应得到模型得分或标签。
跑题,下面进入正文


一、重塑和透视

重排列表格型数据有多种基础操作。这些操作被称为重塑和透视。

1.1 使用多层索引进行重塑

多层索引在DataFrame中提供了一种一致性方式用于重排列数据。以下是两个基础操作:
stack(堆叠):该操作会旋转或将列中的数据透视到行。
unstack(拆堆):该操作会将行中的数据透视到列。

我将通过一系列的例子来说明这些操作。考虑一个带有字符串数组作为行和列索引的小型DataFrame:

data = pd.DataFrame(np.arange(6).reshape((2,3)),
                    index=pd.Index(['Ohio','Colorado'],name='state'),
                    columns=pd.Index(['one','two','three'],name='number'))

print(data)
--------------------------------------------------------------------------
number    one  two  three
state                    
Ohio        0    1      2
Colorado    3    4      5

在这份数据上使用stack方法会将列透视到行、产生一个新的Series:

result = data.stack()
print(result)
--------------------------------------------------------------------------
state     number
Ohio      one       0
          two       1
          three     2
Colorado  one       3
          two       4
          three     5
dtype: int32

从一个多层索引序列中,你可以使用unstack方法将数据重排列放入一个DataFrame中:

result1 = result.unstack()
print(result1)
--------------------------------------------------------------------------
number    one  two  three
state                    
Ohio        0    1      2
Colorado    3    4      5

你可以传入一个层级序号或名称来拆分一个不同的层级:

result1 = result.unstack(0)
print(result1)
result1 = result.unstack('state')
print(result1)
--------------------------------------------------------------------------
state   Ohio  Colorado
number                
one        0         3
two        1         4
three      2         5

state   Ohio  Colorado
number                
one        0         3
two        1         4
three      2         5

如果层级中的所有值并未包含于每个子分组中时,拆分可能会引入缺失值:

s1 = pd.Series([0,1,2,3],index=['a','b','c','d'])
s2 = pd.Series([4,5,6],index=['c','d','e'])
data2 = pd.concat([s1,s2],keys=['one','two'])
print(data2)
a = data2.unstack()
print(a)
--------------------------------------------------------------------------
one  a    0
     b    1
     c    2
     d    3
two  c    4
     d    5
     e    6
dtype: int64

       a    b    c    d    e
one  0.0  1.0  2.0  3.0  NaN
two  NaN  NaN  4.0  5.0  6.0

默认情况下,堆叠会过滤出缺失值,因此堆叠拆堆的操作是可逆的:

a1 = a.stack()
print(a1)
a1 = a.stack(dropna=False)
print(a1)
--------------------------------------------------------------------------
one  a    0.0
     b    1.0
     c    2.0
     d    3.0
two  c    4.0
     d    5.0
     e    6.0
dtype: float64

one  a    0.0
     b    1.0
     c    2.0
     d    3.0
     e    NaN
two  a    NaN
     b    NaN
     c    4.0
     d    5.0
     e    6.0
dtype: float64

当你在DataFrame中拆堆时,被拆堆的层级会变为结果中最低的层级:

df = pd.DataFrame({'left':result,'right':result+5},
                  columns=pd.Index(['left','right'],name='side'))
print(df)
a = df.unstack('state')
print(a)
a1 = a.stack('side')
print(a1)
--------------------------------------------------------------------------
side             left  right
state    number             
Ohio     one        0      5
         two        1      6
         three      2      7
Colorado one        3      8
         two        4      9
         three      5     10

side   left          right         
state  Ohio Colorado  Ohio Colorado
number                             
one       0        3     5        8
two       1        4     6        9
three     2        5     7       10

state         Colorado  Ohio
number side                 
one    left          3     0
       right         8     5
two    left          4     1
       right         9     6
three  left          5     2
       right        10     7

在调用stack方法时,我们可以指定需要堆叠的轴向名称。


1.2 将"长"透视为"宽"

在数据库和CSV中存储多时间序列的方式就是所谓的长格式或堆叠格式。让我们载入一些示例数据,然后做少量的时间序列规整或其他的数据清洗操作:

import pandas as pd
import numpy as np
data = pd.read_csv('examples.csv')
print(data)
periods = pd.PeriodIndex(year=data.year,quarter=data.quarter,name='date')
colums = pd.Index(['realgdp','infl','unemp'],name='item')
data = data.reindex(columns=colums)
data.index = periods.to_timestamp('D','end')
ldata = data.stack().reset_index().rename(columns={0:'value'})

在这本书的第11章会更加详细的讲述PeriodIndex。简单地来说,PeriodIndex将year和quarter等列进行联合并生成了一种时间间隔类型:

a = ldata[:10]
print(a)
------------------------------------------------------------------
                           data     item     value
0 1959-03-31 23:59:59.999999999  realgdp  2710.349
1 1959-03-31 23:59:59.999999999     infl     0.000
2 1959-03-31 23:59:59.999999999    unemp     5.800
3 1959-06-30 23:59:59.999999999  realgdp  2778.801
4 1959-06-30 23:59:59.999999999     infl     2.340
5 1959-06-30 23:59:59.999999999    unemp     5.100
6 1959-09-30 23:59:59.999999999  realgdp  2775.488
7 1959-09-30 23:59:59.999999999     infl     2.740
8 1959-09-30 23:59:59.999999999    unemp     5.300
9 1959-12-31 23:59:59.999999999  realgdp  2785.204

这种数据即所谓的多时间序列的长格式,或称为具有两个或更多个键的其他观测数据(这里,我们的键是date和item)。表中的每一行表示一个时间点上的单个观测值。

数据通常以这种方式存储在关系型数据库中,比如MySQL,因为固定模式(列名称和数据类型)允许item列中不同值的数量随着数据被添加到表中而改变。在某些情况下,处理这种格式的数据更为困难,你可能倾向于获取一个按date列时间戳索引的且每个不同的item独立一列的DataFrame。DataFrame的pivot方法就是进行这种转换的:

pivoted =ldata.pivot('date','item','value')
print(pivoted)
------------------------------------------------------------------
item                           infl   realgdp  unemp
date                                                
1959-03-31 23:59:59.999999999  0.00  2710.349    5.8
1959-06-30 23:59:59.999999999  2.34  2778.801    5.1
1959-09-30 23:59:59.999999999  2.74  2775.488    5.3
1959-12-31 23:59:59.999999999  0.27  2785.204    5.6
1960-03-31 23:59:59.999999999  2.31  2847.699    5.2

传递的前两个值是分别用做行和列的索引,然后是可选的数值列以填充DataFrame。假设你有两个数值列,你想同时进行重塑:

ldata['value2'] = np.random.rand(len(ldata))
print(ldata[:10])
------------------------------------------------------------------
                           date     item     value    value2
0 1959-03-31 23:59:59.999999999  realgdp  2710.349  0.159273
1 1959-03-31 23:59:59.999999999     infl     0.000  0.634771
2 1959-03-31 23:59:59.999999999    unemp     5.800  0.755082
3 1959-06-30 23:59:59.999999999  realgdp  2778.801  0.039249
4 1959-06-30 23:59:59.999999999     infl     2.340  0.348240
5 1959-06-30 23:59:59.999999999    unemp     5.100  0.236757
6 1959-09-30 23:59:59.999999999  realgdp  2775.488  0.268822
7 1959-09-30 23:59:59.999999999     infl     2.740  0.583768
8 1959-09-30 23:59:59.999999999    unemp     5.300  0.823572
9 1959-12-31 23:59:59.999999999  realgdp  2785.204  0.295369

如果遗漏最好一个参数,你会得到一个含有多层列的DataFrame:

pivoted =ldata.pivot('date','item')
print(pivoted)
print(pivoted['value'])

------------------------------------------------------------------
                              value            ...    value2          
item                           infl   realgdp  ...   realgdp     unemp
date                                           ...                    
1959-03-31 23:59:59.999999999  0.00  2710.349  ...  0.955451  0.615201
1959-06-30 23:59:59.999999999  2.34  2778.801  ...  0.514404  0.019166
1959-09-30 23:59:59.999999999  2.74  2775.488  ...  0.250485  0.459031
1959-12-31 23:59:59.999999999  0.27  2785.204  ...  0.888854  0.291041
1960-03-31 23:59:59.999999999  2.31  2847.699  ...  0.789863  0.392345
[5 rows x 6 columns]

item                           infl   realgdp  unemp
date                                                
1959-03-31 23:59:59.999999999  0.00  2710.349    5.8
1959-06-30 23:59:59.999999999  2.34  2778.801    5.1
1959-09-30 23:59:59.999999999  2.74  2775.488    5.3
1959-12-31 23:59:59.999999999  0.27  2785.204    5.6
1960-03-31 23:59:59.999999999  2.31  2847.699    5.2

pivot方法等价于使用set_index创建分层索引,然后调用unstack:

unstacked = ldata.set_index(['date','item']).unstack('item')
print(unstacked)
------------------------------------------------------------------
                              value            ...    value2          
item                           infl   realgdp  ...   realgdp     unemp
date                                           ...                    
1959-03-31 23:59:59.999999999  0.00  2710.349  ...  0.955451  0.615201
1959-06-30 23:59:59.999999999  2.34  2778.801  ...  0.514404  0.019166
1959-09-30 23:59:59.999999999  2.74  2775.488  ...  0.250485  0.459031
1959-12-31 23:59:59.999999999  0.27  2785.204  ...  0.888854  0.291041
1960-03-31 23:59:59.999999999  2.31  2847.699  ...  0.789863  0.392345
[5 rows x 6 columns]

1.3 将"宽"透视为"长"

在DataFrame中,pivot方法的反操作是pandas.melt.与将一列变换为新的DataFrame中的多列不同,它将多列合并成一列,产生一个新的DataFrame,其长度比输入更长。让我们看下面这个例子:

df = pd.DataFrame({'key': ['foo', 'bar', 'baz'],
                   'A': [1, 2, 3],
                   'B': [4, 5, 6],
                   'C': [7, 8, 9]})
print(df)
------------------------------------------------------------------
   key  A  B  C
0  foo  1  4  7
1  bar  2  5  8
2  baz  3  6  9

‘key’列可以作为分组指标,其他列均为数据值。当使用pandas.melt时,我们必须指明哪些列是分组指标。此处,让我们使用‘key’作为唯一的分组指标:

melted = pd.melt(df,['key'])
print(melted)
------------------------------------------------------------------
   key variable  value
0  foo        A      1
1  bar        A      2
2  baz        A      3
3  foo        B      4
4  bar        B      5
5  baz        B      6
6  foo        C      7
7  bar        C      8
8  baz        C      9

使用pivot方法,我们可以将数据重塑回原先布局:

reshaped = melted.pivot('key','variable','value')
print(reshaped)
------------------------------------------------------------------
variable  A  B  C
key              
bar       2  5  8
baz       3  6  9
foo       1  4  7

由于pivot的结果根据作为行标签的列生成了索引,我们可能会想要使用reset_index来将数据回移一列:

a = reshaped.reset_index()
print(a)
------------------------------------------------------------------
variable  key  A  B  C
0         bar  2  5  8
1         baz  3  6  9
2         foo  1  4  7

你也可以指定列的子集作为值列:

a1 = pd.melt(df,id_vars=['key'],value_vars=['A','B'])
print(a1)
------------------------------------------------------------------
   key variable  value
0  foo        A      1
1  bar        A      2
2  baz        A      3
3  foo        B      4
4  bar        B      5
5  baz        B      6

pandas.melt的使用也可以无须任何分组指标:

a = pd.melt(df,value_vars=['A','B','C'])
print(a)
a1 = pd.melt(df,value_vars=['key','A','B'])
print(a1)
------------------------------------------------------------------
  variable  value
0        A      1
1        A      2
2        A      3
3        B      4
4        B      5
5        B      6
6        C      7
7        C      8
8        C      9

  variable value
0      key   foo
1      key   bar
2      key   baz
3        A     1
4        A     2
5        A     3
6        B     4
7        B     5
8        B     6


总结

以上就是今天要讲的内容,本文仅仅简单介绍了数据的重塑和透视操作,重塑可以通过unstack和stack方法来实现,而透视操作可以通过pivot和melt方法来实现。根据目前的章节知识,我们已经拥有了pandas的基础知识,包括数据导入,数据清洗以及按照你自己的想法重新组织数据,我们已经预备好去使用matplotlib进行数据可视化了。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值