pandas汇总和描述性统计

import pandas as pd
import numpy as np
In [3]:
df = pd.DataFrame([[1.4, np.nan], [7.1, -4.5],
                   [np.nan, np.nan], [0.75, -1.3]],
                  index=['a', 'b', 'c', 'd'],
                  columns=['one', 'two'])
df
Out[3]:
 onetwo
a1.40NaN
b7.10-4.5
cNaNNaN
d0.75-1.3

使用sum的话,会返回一个series:    #NA值不参与计算

In [4]:
df.sum()
Out[4]:
one    9.25
two   -5.80
dtype: float64

使用axis='columns' or axis=1,计算列之间的和:

#计算行之间的和  df.sum(axis=0)

#统计计算可以指定轴计算,当然也可以指定轴上的某行某列

计算第一列的数据: df['one'].sum()

计算第一行的数据:df.iloc[0,0:].sum()

In [5]:
df.sum(axis='columns')
Out[5]:
a    1.40
b    2.60
c    0.00
d   -0.55
dtype: float64

计算的时候,NA(即缺失值)会被除外,除非整个切片全是NA。我们可以用skipna来跳过计算NA:

In [6]:
df.mean(axis='columns', skipna=False)
Out[6]:
a      NaN
b    1.300
c      NaN
d   -0.275
dtype: float64

一些reduction方法:

一些方法,比如idxmin和idxmax,能返回间接的统计值,比如index value:

#返回列的特征值的索引

In [8]:
df
Out[8]:
 onetwo
a1.40NaN
b7.10-4.5
cNaNNaN
d0.75-1.3
In [7]:
df.idxmax()
Out[7]:
one    b
two    d
dtype: object

还能计算累加值:    #忽略NAN值

In [9]:
df.cumsum()
Out[9]:
 onetwo
a1.40NaN
b8.50-4.5
cNaNNaN
d9.25-5.8

另一种类型既不是降维,也不是累加。describe能一下子产生多维汇总数据:    #NAN值不计入在内

In [10]:
df.describe()
Out[10]:
 onetwo
count3.0000002.000000
mean3.083333-2.900000
std3.4936852.262742
min0.750000-4.500000
25%NaNNaN
50%NaNNaN
75%NaNNaN
max7.100000-1.300000

对于非数值性的数据,describe能产生另一种汇总统计:

In [11]:
obj = pd.Series(['a', 'a', 'b', 'c'] * 4)
obj
Out[11]:
0     a
1     a
2     b
3     c
4     a
5     a
6     b
7     c
8     a
9     a
10    b
11    c
12    a
13    a
14    b
15    c
dtype: object
In [12]:
obj.describe()
Out[12]:
count     16
unique     3
top        a
freq       8
dtype: object

下表是一些描述和汇总统计数据:

1 Correlation and Covariance (相关性和协方差)

假设DataFrame时股价和股票数量。这些数据取自yahoo finace,用padas-datareader包能加载。如果没有的话,用conda或pip来下载这个包:

In [ ]:
conda install pandas-datareader
In [14]:
import pandas_datareader.data as web
In [ ]:
all_data = {ticker: web.get_data_yahoo(ticker)
            for ticker in ['AAPL', 'IBM', 'MSFT', 'GOOG']}

price = pd.DataFrame({ticker: data['Adj Close']
                      for ticker, data in all_data.items()})

volumn = pd.DataFrame({ticker: data['Volumn']
                       for ticker, data in all_data.items()})

上面的代码无法直接从yahoo上爬取数据,因为yahoo被verizon收购后,好像是不能用了。于是这里我们直接从下好的数据包里加载。

In [17]:
ls ../examples/
5.1 Introduction to pandas Data Structures(pandas的数据结构).ipynb
5.2 Essential Functionality(主要功能).ipynb
5.3 Summarizing and Computing Descriptive Statistics(总结和描述性统计).ipynb
In [18]:
price = pd.read_pickle('../examples/yahoo_price.pkl')
volume = pd.read_pickle('../examples/yahoo_volume.pkl')
In [20]:
price.head()
Out[20]:
 AAPLGOOGIBMMSFT
Date    
2010-01-0427.990226313.062468113.30453625.884104
2010-01-0528.038618311.683844111.93582225.892466
2010-01-0627.592626303.826685111.20868325.733566
2010-01-0727.541619296.753749110.82373225.465944
2010-01-0827.724725300.709808111.93582225.641571
In [21]:
volume.head()
Out[21]:
 AAPLGOOGIBMMSFT
Date    
2010-01-041234324003927000615530038409100
2010-01-051504762006031900684140049749600
2010-01-061380400007987100560530058182400
2010-01-0711928280012876600584060050559700
2010-01-081119027009483900419720051197400

pct_change(): 这个函数用来计算同colnums两个相邻的数字之间的变化率

现在我们计算一下价格百分比的变化:

In [23]:
returns = price.pct_change()
returns.tail()
Out[23]:
 AAPLGOOGIBMMSFT
Date    
2016-10-17-0.0006800.0018370.002072-0.003483
2016-10-18-0.0006810.019616-0.0261680.007690
2016-10-19-0.0029790.0078460.003583-0.002255
2016-10-20-0.000512-0.0056520.001719-0.004867
2016-10-21-0.0039300.003011-0.0124740.042096

series的corr方法计算两个,重合的,非NA的,通过index排列好的series。cov计算方差:

In [24]:
returns['MSFT'].corr(returns['IBM'])
Out[24]:
0.4997636114415116
In [26]:
returns['MSFT'].cov(returns['IBM'])
Out[26]:
8.8706554797035489e-05

因为MSFT是一个有效的python属性,我们可以通过更简洁的方式来选中columns:

In [27]:
returns.MSFT.corr(returns.IBM)
Out[27]:
0.4997636114415116

dataframe的corr和cov方法,能返回一个完整的相似性或方差矩阵:

In [28]:
returns.corr()
Out[28]:
 AAPLGOOGIBMMSFT
AAPL1.0000000.4079190.3868170.389695
GOOG0.4079191.0000000.4050990.465919
IBM0.3868170.4050991.0000000.499764
MSFT0.3896950.4659190.4997641.000000
In [29]:
returns.cov()
Out[29]:
 AAPLGOOGIBMMSFT
AAPL0.0002770.0001070.0000780.000095
GOOG0.0001070.0002510.0000780.000108
IBM0.0000780.0000780.0001460.000089
MSFT0.0000950.0001080.0000890.000215

用Dataframe的corrwith方法,我们可以计算dataframe中不同columns之间,或row之间的相似性。传递一个series:

In [30]:
returns.corrwith(returns.IBM)
Out[30]:
AAPL    0.386817
GOOG    0.405099
IBM     1.000000
MSFT    0.499764
dtype: float64

传入一个dataframe能计算匹配的column names质监局的相似性。这里我计算vooumn中百分比变化的相似性:

In [32]:
returns.corrwith(volume)
Out[32]:
AAPL   -0.075565
GOOG   -0.007067
IBM    -0.204849
MSFT   -0.092950
dtype: float64

传入axis='columns'能做到row-by-row计算。在correlation被计算之前,所有的数据会根据label先对齐。

2 Unique Values, Value Counts, and Membership(唯一值,值计数,会员)

这里介绍另一种从一维series中提取信息的方法:

In [33]:
obj = pd.Series(['c', 'a', 'd', 'a', 'a', 'b', 'b', 'c', 'c'])

第一个函数时unique,能告诉我们series里unique values有哪些:

In [34]:
uniques = obj.unique()
uniques
Out[34]:
array(['c', 'a', 'd', 'b'], dtype=object)

返回的unique values不是有序的,但我们可以排序,uniques.sort()。相对的,value_counts能计算series中值出现的频率:

In [35]:
obj.value_counts()
Out[35]:
a    3
c    3
b    2
d    1
dtype: int64

返回的结果是按降序处理的。vaule_counts也是pandas中的方法,能用在任何array或sequence上:

In [36]:
pd.value_counts(obj.values, sort=False)
Out[36]:
d    1
c    3
b    2
a    3
dtype: int64

isin 能实现一个向量化的集合成员关系检查,能用于过滤数据集,检查一个子集,是否在series的values中,或在dataframe的column中:

In [37]:
obj
Out[37]:
0    c
1    a
2    d
3    a
4    a
5    b
6    b
7    c
8    c
dtype: object
In [38]:
mask = obj.isin(['b', 'c'])
mask
Out[38]:
0     True
1    False
2    False
3    False
4    False
5     True
6     True
7     True
8     True
dtype: bool
In [39]:
obj[mask]
Out[39]:
0    c
5    b
6    b
7    c
8    c
dtype: object

与isin相对的另一个方法是Index.get_indexer,能返回一个index array,告诉我们有重复值的values(to_match),在非重复的values(unique_vals)中对应的索引值:

In [40]:
to_match = pd.Series(['c', 'a', 'b', 'b', 'c', 'a'])
unique_vals = pd.Series(['c', 'b', 'a'])
In [41]:
pd.Index(unique_vals).get_indexer(to_match)
Out[41]:
array([0, 2, 1, 1, 0, 2])

Unique, value counts, and set membership methods:

在某些情况下,你可能想要计算一下dataframe中多个column的柱状图:

In [42]:
data = pd.DataFrame({'Qu1': [1, 3, 4, 3, 4],
                     'Qu2': [2, 3, 1, 2, 3],
                     'Qu3': [1, 5, 2, 4, 4]})
data
Out[42]:
 Qu1Qu2Qu3
0121
1335
2412
3324
4434

把padas.value_counts传递给dataframe的apply函数:

In [44]:
result = data.apply(pd.value_counts)
result
Out[44]:
 Qu1Qu2Qu3
11.01.01.0
2NaN2.01.0
32.02.0NaN
42.0NaN2.0
5NaNNaN1.0

每一行的laebls(即1,2,3,4,5)其实就是整个data里出现过的值,从1到5。而对应的每个方框里的值,则是表示该值在当前列中出现的次数。比如,(2, Qu1)的值是Nan,说明2这个数字没有在Qu1这一列出现过。(2, Qu2)的值是2,说明2这个数字在Qu2这一列出现过2次。(2, Qu3)的值是1,说明2这个数字在Qu3这一列出现过1次。

  • 3
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值