第四章 分组
import numpy as np
import pandas as pd
一、分组模式及其对象
1. 分组的一般模式
分组操作在日常生活中使用极其广泛,例如:
- 依据 性 别 \color{#FF0000}{性别} 性别分组,统计全国人口 寿 命 \color{#00FF00}{寿命} 寿命的 平 均 值 \color{#0000FF}{平均值} 平均值
- 依据 季 节 \color{#FF0000}{季节} 季节分组,对每一个季节的 温 度 \color{#00FF00}{温度} 温度进行 组 内 标 准 化 \color{#0000FF}{组内标准化} 组内标准化
- 依据 班 级 \color{#FF0000}{班级} 班级筛选出组内 数 学 分 数 \color{#00FF00}{数学分数} 数学分数的 平 均 值 超 过 80 分 的 班 级 \color{#0000FF}{平均值超过80分的班级} 平均值超过80分的班级
从上述的几个例子中不难看出,想要实现分组操作,必须明确三个要素: 分 组 依 据 \color{#FF0000}{分组依据} 分组依据、 数 据 来 源 \color{#00FF00}{数据来源} 数据来源、 操 作 及 其 返 回 结 果 \color{#0000FF}{操作及其返回结果} 操作及其返回结果。同时从充分性的角度来说,如果明确了这三方面,就能确定一个分组操作,从而分组代码的一般模式即:
df.groupby(分组依据)[数据来源].使用操作
例如第一个例子中的代码就应该如下:
df.groupby('Gender')['Longevity'].mean()
现在返回到学生体测的数据集上,如果想要按照性别统计身高中位数,就可以如下写出:
df = pd.read_csv('../data/learn_pandas.csv')
df.groupby('Gender')['Height'].median()
Gender
Female 159.6
Male 173.4
Name: Height, dtype: float64
2. 分组依据的本质
前面提到的若干例子都是以单一维度进行分组的,比如根据性别,如果现在需要根据多个维度进行分组,该如何做?事实上,只需在groupby
中传入相应列名构成的列表即可。例如,现希望根据学校和性别进行分组,统计身高的均值就可以如下写出:
df.groupby(['School', 'Gender'])['Height'].mean()
School Gender
Fudan University Female 158.776923
Male 174.212500
Peking University Female 158.666667
Male 172.030000
Shanghai Jiao Tong University Female 159.122500
Male 176.760000
Tsinghua University Female 159.753333
Male 171.638889
Name: Height, dtype: float64
目前为止,groupby
的分组依据都是直接可以从列中按照名字获取的,那如果希望通过一定的复杂逻辑来分组,例如根据学生体重是否超过总体均值来分组,同样还是计算身高的均值。
首先应该先写出分组条件:
condition = df.Weight > df.Weight.mean()
然后将其传入groupby
中:
df.groupby(condition)['Height'].mean()
Weight
False 159.034646
True 172.705357
Name: Height, dtype: float64
【练一练】
请根据上下四分位数分割,将体重分为high、normal、low三组,统计身高的均值。
【END】
def func(x):
if x > df['Height'].quantile(0.75):
res = 'high'
elif x < df['Height'].quantile(0.25):
res = 'low'
else:
res = 'normal'
return res
condition1 = df['Height'].apply(func)
df.groupby(condition1)['Height'].mean()
Height
high 175.034783
low 153.580435
normal 162.116484
Name: Height, dtype: float64
从索引可以看出,其实最后产生的结果就是按照条件列表中元素的值(此处是True
和False
)来分组,下面用随机传入字母序列来验证这一想法:
item = np.random.choice(list('abc'), df.shape[0])
df.groupby(item)['Height'].mean()
a 163.038462
b 162.100000
c 164.575862
Name: Height, dtype: float64
此处的索引就是原先item中的元素,如果传入多个序列进入groupby
,那么最后分组的依据就是这两个序列对应行的唯一组合:
df.groupby([condition, item])['Height'].mean()
Weight
False a 157.876744
b 158.923404
c 160.521622
True a 173.127273
b 173.584615
c 171.719048
Name: Height, dtype: float64
由此可以看出,之前传入列名只是一种简便的记号,事实上等价于传入的是一个或多个列,最后分组的依据来自于数据来源组合的unique值,通过drop_duplicates
就能知道具体的组类别:
df[['School', 'Gender']].drop_duplicates()
School | Gender | |
---|---|---|
0 | Shanghai Jiao Tong University | Female |
1 | Peking University | Male |
2 | Shanghai Jiao Tong University | Male |
3 | Fudan University | Female |
4 | Fudan University | Male |
5 | Tsinghua University | Female |
9 | Peking University | Female |
16 | Tsinghua University | Male |
df.groupby([df['School'], df['Gender']])['Height'].mean()
School Gender
Fudan University Female 158.776923
Male 174.212500
Peking University Female 158.666667
Male 172.030000
Shanghai Jiao Tong University Female 159.122500
Male 176.760000
Tsinghua University Female 159.753333
Male 171.638889
Name: Height, dtype: float64
df.groupby(['School','Gender'])['Height'].mean()
School Gender
Fudan University Female 158.776923
Male 174.212500
Peking University Female 158.666667
Male 172.030000
Shanghai Jiao Tong University Female 159.122500
Male 176.760000
Tsinghua University Female 159.753333
Male 171.638889
Name: Height, dtype: float64
3. Groupby对象
能够注意到,最终具体做分组操作时,所调用的方法都来自于pandas
中的groupby
对象,这个对象上定义了许多方法,也具有一些方便的属性。
gb = df.groupby(['School', 'Grade'])
gb
<pandas.core.groupby.generic.DataFrameGroupBy object at 0x000001F65AC751C8>
通过ngroups
属性,可以得到分组个数:
gb.ngroups #分组个数
16
通过groups
属性,可以返回从
组
名
\color{#FF0000}{组名}
组名映射到
组
索
引
列
表
\color{#FF0000}{组索引列表}
组索引列表的字典:
res = gb.groups # 得到的是字典
res.keys() # 字典的值由于是索引,元素个数过多,此处只展示字典的键
dict_keys([('Fudan University', 'Freshman'), ('Fudan University', 'Junior'), ('Fudan University', 'Senior'), ('Fudan University', 'Sophomore'), ('Peking University', 'Freshman'), ('Peking University', 'Junior'), ('Peking University', 'Senior'), ('Peking University', 'Sophomore'), ('Shanghai Jiao Tong University', 'Freshman'), ('Shanghai Jiao Tong University', 'Junior'), ('Shanghai Jiao Tong University', 'Senior'), ('Shanghai Jiao Tong University', 'Sophomore'), ('Tsinghua University', 'Freshman'), ('Tsinghua University', 'Junior'), ('Tsinghua University', 'Senior'), ('Tsinghua University', 'Sophomore')])
【练一练】
上一小节介绍了可以通过drop_duplicates
得到具体的组类别,现请用groups
属性完成类似的功能。
【END】
df.groupby(["School","Gender"]).groups.keys()
dict_keys([('Fudan University', 'Female'), ('Fudan University', 'Male'), ('Peking University', 'Female'), ('Peking University', 'Male'), ('Shanghai Jiao Tong University', 'Female'), ('Shanghai Jiao Tong University', 'Male'), ('Tsinghua University', 'Female'), ('Tsinghua University', 'Male')])
当size
作为DataFrame
的属性时,返回的是表长乘以表宽的大小,但在groupby
对象上表示统计每个组的元素个数:
gb.size()
School Grade
Fudan University Freshman 9
Junior 12
Senior 11
Sophomore 8
Peking University Freshman 13
Junior 8
Senior 8
Sophomore 5
Shanghai Jiao Tong University Freshman 13
Junior 17
Senior 22
Sophomore 5
Tsinghua University Freshman 17
Junior 22
Senior 14
Sophomore 16
dtype: int64
通过get_group
方法可以直接获取所在组对应的行,此时必须知道组的具体名字:
gb.get_group(('Fudan University', 'Freshman'))
School | Grade | Name | Gender | Height | Weight | Transfer | Test_Number | Test_Date | Time_Record | |
---|---|---|---|---|---|---|---|---|---|---|
15 | Fudan University | Freshman | Changqiang Yang | Female | 156.0 | 49.0 | N | 3 | 2020/1/1 | 0:05:25 |
28 | Fudan University | Freshman | Gaoqiang Qin | Female | 170.2 | 63.0 | N | 2 | 2020/1/7 | 0:05:24 |
63 | Fudan University | Freshman | Gaofeng Zhao | Female | 152.2 | 43.0 | N | 2 | 2019/10/31 | 0:04:00 |
70 | Fudan University | Freshman | Yanquan Wang | Female | 163.5 | 55.0 | N | 1 | 2019/11/19 | 0:04:07 |
73 | Fudan University | Freshman | Feng Wang | Male | 176.3 | 74.0 | N | 1 | 2019/9/26 | 0:03:31 |
105 | Fudan University | Freshman | Qiang Shi | Female | 164.5 | 52.0 | N | 1 | 2019/12/11 | 0:04:23 |
108 | Fudan University | Freshman | Yanqiang Xu | Female | 152.4 | 38.0 | N | 1 | 2019/12/8 | 0:05:03 |
157 | Fudan University | Freshman | Xiaoli Lv | Female | 152.5 | 45.0 | N | 2 | 2019/9/11 | 0:04:17 |
186 | Fudan University | Freshman | Yanjuan Zhao | Female | NaN | 53.0 | N | 2 | 2019/10/9 | 0:04:21 |
这里列出了2个属性和2个方法,而先前的mean
、median
都是groupby
对象上的方法,这些函数和许多其他函数的操作具有高度相似性,将在之后的小节进行专门介绍。
4. 分组的三大操作
熟悉了一些分组的基本知识后,重新回到开头举的三个例子,可能会发现一些端倪,即这三种类型分组返回的数据型态并不一样:
- 第一个例子中,每一个组返回一个标量值,可以是平均值、中位数、组容量
size
等 - 第二个例子中,做了原序列的标准化处理,也就是说每组返回的是一个
Series
类型 - 第三个例子中,既不是标量也不是序列,返回的整个组所在行的本身,即返回了
DataFrame
类型
由此,引申出分组的三大操作:聚合、变换和过滤,分别对应了三个例子的操作,下面就要分别介绍相应的agg
、transform
和filter
函数及其操作。
二、聚合函数
1. 内置聚合函数
在介绍agg之前,首先要了解一些直接定义在groupby对象的聚合函数,因为它的速度基本都会经过内部的优化,使用功能时应当优先考虑。根据返回标量值的原则,包括如下函数:max/min/mean/median/count/all/any/idxmax/idxmin/mad/nunique/skew/quantile/sum/std/var/sem/size/prod
。
gb = df.groupby('Gender')['Height']
gb.idxmin() # 获取最小值索引
Gender
Female 143
Male 199
Name: Height, dtype: int64
gb.quantile(0.95) # 分位数
Gender
Female 166.8
Male 185.9
Name: Height, dtype: float64
【练一练】
请查阅文档,明确all/any/mad/skew/sem/prod
函数的含义。
【END】
any(): Return True if any value in the group is truthful, else False。大概意思是如果组内有truthful的值就返回True
all():Return True if all values in the group are truthful, else False.组内所有元素都是truthful,返回True。
mad():返回组内元素的绝对中位差。先计算出数据与它们的中位数之间的残差,MAD就是这些偏差的绝对值的平均值。MAD比方差鲁棒性更好。
skew():组内数据的偏度。
sem():组内数据的均值标准误差。
prod() :组内所有元素的乘积。
df_test = pd.DataFrame({"fenzu1":["a","a","a","b","b","b","c","c","c"],
"shuju":[1,2,3,0,0,0,0,1,2]
})
df_test.groupby("fenzu1")["shuju"].any()
fenzu1
a True
b False
c True
Name: shuju, dtype: bool
df_test.groupby("fenzu1")["shuju"].all()
fenzu1
a True
b False
c False
Name: shuju, dtype: bool
mad: 返回所请求轴的值的平均绝对偏差。 DataFrame.mad(axis=None, skipna=None,
level=None) skipna=None 计算结果时排除NA / null值
df_test.groupby("fenzu1")["shuju"].mad()
fenzu1
a 0.666667
b 0.000000
c 0.666667
Name: shuju, dtype: float64
skew: 在请求的轴上返回偏斜。
参考:https://blog.csdn.net/u010665216/article/details/78591288
df_test.groupby("fenzu1")["shuju"].skew()
fenzu1
a 0.0
b 0.0
c 0.0
Name: shuju, dtype: float64
sem:返回要求轴上的平均值(由N-1归一化)的无偏标准误差。样本均值/sqrt(N)
df_test.groupby("fenzu1")["shuju"].sem()
fenzu1
a 0.57735
b 0.00000
c 0.57735
Name: shuju, dtype: float64
np.sqrt(1/3)
0.5773502691896257
df_test.groupby("fenzu1")["shuju"].prod() # 累乘
fenzu1
a 6
b 0
c 0
Name: shuju, dtype: int64
这些聚合函数当传入的数据来源包含多个列时,将按照列进行迭代计算:
gb = df.groupby('Gender')[['Height', 'Weight']]
gb.max()
Height | Weight | |
---|---|---|
Gender | ||
Female | 170.2 | 63.0 |
Male | 193.9 | 89.0 |
2. agg方法
虽然在groupby
对象上定义了许多方便的函数,但仍然有以下不便之处:
- 无法同时使用多个函数
- 无法对特定的列使用特定的聚合函数
- 无法使用自定义的聚合函数
- 无法直接对结果的列名在聚合前进行自定义命名
下面说明如何通过agg
函数解决这四类问题:
【a】使用多个函数
当使用多个聚合函数时,需要用列表的形式把内置聚合函数对应的字符串传入,先前提到的所有字符串都是合法的。
gb.agg(['sum', 'idxmax', 'skew'])
Height | Weight | |||||
---|---|---|---|---|---|---|
sum | idxmax | skew | sum | idxmax | skew | |
Gender | ||||||
Female | 21014.0 | 28 | -0.219253 | 6469.0 | 28 | -0.268482 |
Male | 8854.9 | 193 | 0.437535 | 3929.0 | 2 | -0.332393 |
从结果看,此时的列索引为多级索引,第一层为数据源,第二层为使用的聚合方法,分别逐一对列使用聚合,因此结果为6列。
【b】对特定的列使用特定的聚合函数
对于方法和列的特殊对应,可以通过构造字典传入agg
中实现,其中字典以列名为键,以聚合字符串或字符串列表为值。
gb.agg({'Height':['mean','max'], 'Weight':'count'})
Height | Weight | ||
---|---|---|---|
mean | max | count | |
Gender | |||
Female | 159.19697 | 170.2 | 135 |
Male | 173.62549 | 193.9 | 54 |
【练一练】
请使用【b】中的传入字典的方法完成【a】中等价的聚合任务。
【END】
gb.agg({"Height":["sum","idxmax","skew"],
"Weight":["sum","idxmax","skew"]})
Height | Weight | |||||
---|---|---|---|---|---|---|
sum | idxmax | skew | sum | idxmax | skew | |
Gender | ||||||
Female | 21014.0 | 28 | -0.219253 | 6469.0 | 28 | -0.268482 |
Male | 8854.9 | 193 | 0.437535 | 3929.0 | 2 | -0.332393 |
【c】使用自定义函数
在agg
中可以使用具体的自定义函数,
需
要
注
意
传
入
函
数
的
参
数
是
之
前
数
据
源
中
的
列
,
逐
列
进
行
计
算
\color{#FF0000}{需要注意传入函数的参数是之前数据源中的列,逐列进行计算}
需要注意传入函数的参数是之前数据源中的列,逐列进行计算。下面分组计算身高和体重的极差:
gb.agg(lambda x: x.mean()-x.min())
Height | Weight | |
---|---|---|
Gender | ||
Female | 13.79697 | 13.918519 |
Male | 17.92549 | 21.759259 |
【练一练】
在groupby
对象中可以使用describe
方法进行统计信息汇总,请同时使用多个聚合函数,完成与该方法相同的功能。
【END】
gb.describe()
Height | Weight | |||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
count | mean | std | min | 25% | 50% | 75% | max | count | mean | std | min | 25% | 50% | 75% | max | |
Gender | ||||||||||||||||
Female | 132.0 | 159.19697 | 5.053982 | 145.4 | 155.675 | 159.6 | 162.825 | 170.2 | 135.0 | 47.918519 | 5.405983 | 34.0 | 44.0 | 48.0 | 52.00 | 63.0 |
Male | 51.0 | 173.62549 | 7.048485 | 155.7 | 168.900 | 173.4 | 177.150 | 193.9 | 54.0 | 72.759259 | 7.772557 | 51.0 | 69.0 | 73.0 | 78.75 | 89.0 |
def q1(x):
return x.quantile(0.25)
def q2(x):
return x.quantile(0.75)
gb.agg(["count","mean","std","min",("25%",q1),("50%","quantile"),("75%",q2),"max"])
Height | Weight | |||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
count | mean | std | min | 25% | 50% | 75% | max | count | mean | std | min | 25% | 50% | 75% | max | |
Gender | ||||||||||||||||
Female | 132 | 159.19697 | 5.053982 | 145.4 | 155.675 | 159.6 | 162.825 | 170.2 | 135 | 47.918519 | 5.405983 | 34.0 | 44.0 | 48.0 | 52.00 | 63.0 |
Male | 51 | 173.62549 | 7.048485 | 155.7 | 168.900 | 173.4 | 177.150 | 193.9 | 54 | 72.759259 | 7.772557 | 51.0 | 69.0 | 73.0 | 78.75 | 89.0 |
由于传入的是序列series,因此序列上的方法和属性都是可以在函数中使用的,只需保证返回值是标量即可。下面的例子是指,如果组的指标均值,超过该指标的总体均值,返回High,否则返回Low。
def my_func(s):
res = 'High'
if s.mean() <= df[s.name].mean():
res = 'Low'
return res
gb.agg(my_func)
Height | Weight | |
---|---|---|
Gender | ||
Female | Low | Low |
Male | High | High |
【d】聚合结果重命名
如果想要对聚合结果的列名进行重命名,只需要将上述函数的位置改写成元组,元组的第一个元素为新的名字,第二个位置为原来的函数,包括聚合字符串和自定义函数,现举若干例子说明:
gb.agg([('range', lambda x: x.max()-x.min()), ('my_sum', 'sum')])
Height | Weight | |||
---|---|---|---|---|
range | my_sum | range | my_sum | |
Gender | ||||
Female | 24.8 | 21014.0 | 29.0 | 6469.0 |
Male | 38.2 | 8854.9 | 38.0 | 3929.0 |
gb.agg({'Height': [('my_func', my_func), 'sum'], 'Weight': lambda x:x.max()})
Height | Weight | ||
---|---|---|---|
my_func | sum | <lambda> | |
Gender | |||
Female | Low | 21014.0 | 63.0 |
Male | High | 8854.9 | 89.0 |
另外需要注意,使用对一个或者多个列使用单个聚合的时候,重命名需要加方括号,否则就不知道是新的名字还是手误输错的内置函数字符串:
gb.agg([('my_sum', 'sum')])
Height | Weight | |
---|---|---|
my_sum | my_sum | |
Gender | ||
Female | 21014.0 | 6469.0 |
Male | 8854.9 | 3929.0 |
gb.agg({'Height': [('my_func', my_func), 'sum'], 'Weight': [('range', lambda x:x.max())]})
Height | Weight | ||
---|---|---|---|
my_func | sum | range | |
Gender | |||
Female | Low | 21014.0 | 63.0 |
Male | High | 8854.9 | 89.0 |
三、变换和过滤
1. 变换函数与transform方法
变换函数的返回值为同长度的序列,最常用的内置变换函数是累计函数:cumcount/cumsum/cumprod/cummax/cummin
,它们的使用方式和聚合函数类似,只不过完成的是组内累计操作。此外在groupby
对象上还定义了填充类和滑窗类的变换函数,这些函数的一般形式将会分别在第七章和第十章中讨论,此处略过。
gb.cummax().head()
Height | Weight | |
---|---|---|
0 | 158.9 | 46.0 |
1 | 166.5 | 70.0 |
2 | 188.9 | 89.0 |
3 | NaN | 46.0 |
4 | 188.9 | 89.0 |
【练一练】
在groupby
对象中,rank
方法也是一个实用的变换函数,请查阅它的功能并给出一个使用的例子。
【END】
功能:沿轴计算数值数据等级(1到n)。默认情况下,为相等的值分配一个等级,该等级是这些值的等级的平均值。
df1 = df.copy()
df1["rank"] = df1.groupby('Gender')["Height"].rank(method = "first",ascending = False)
df1.sort_values(by = ["Gender","rank"]).head(5)
School | Grade | Name | Gender | Height | Weight | Transfer | Test_Number | Test_Date | Time_Record | rank | |
---|---|---|---|---|---|---|---|---|---|---|---|
28 | Fudan University | Freshman | Gaoqiang Qin | Female | 170.2 | 63.0 | N | 2 | 2020/1/7 | 0:05:24 | 1.0 |
75 | Peking University | Junior | Qiang You | Female | 170.0 | 56.0 | N | 3 | 2019/12/31 | 0:04:27 | 2.0 |
55 | Tsinghua University | Sophomore | Chengquan Zhang | Female | 168.9 | 54.0 | N | 1 | 2019/12/7 | 0:04:29 | 3.0 |
146 | Tsinghua University | Freshman | Juan Zhang | Female | 168.6 | 55.0 | N | 1 | 2019/9/30 | 0:05:06 | 4.0 |
64 | Shanghai Jiao Tong University | Junior | Yanmei Yang | Female | 167.7 | 57.0 | N | 2 | 2019/12/16 | 0:03:37 | 5.0 |
当用自定义变换时需要使用transform
方法,被调用的自定义函数,
其
传
入
值
为
数
据
源
的
序
列
\color{#FF0000}{其传入值为数据源的序列}
其传入值为数据源的序列,与agg
的传入类型是一致的,其最后的返回结果是行列索引与数据源一致的DataFrame
。
现对身高和体重进行分组标准化,即减去组均值后除以组的标准差:
gb.size()
Gender
Female 141
Male 59
dtype: int64
df1 = df.copy()
df1[["biaozhunhuashengao","biaozhunhuatizhong"]] = df1.groupby("Gender")[["Height","Weight"]].transform(lambda x: (x-x.mean())/x.std())
df1["Height_mean"] = df1.groupby("Gender")["Height"].transform("mean")
df1.sort_values(by="Gender")
School | Grade | Name | Gender | Height | Weight | Transfer | Test_Number | Test_Date | Time_Record | biaozhunhuashengao | biaozhunhuatizhong | Height_mean | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | Shanghai Jiao Tong University | Freshman | Gaopeng Yang | Female | 158.9 | 46.0 | N | 1 | 2019/10/5 | 0:04:34 | -0.058760 | -0.354888 | 159.19697 |
97 | Tsinghua University | Sophomore | Xiaoqiang Qin | Female | 160.8 | 54.0 | N | 1 | 2019/12/6 | 0:05:26 | 0.317182 | 1.124954 | 159.19697 |
167 | Shanghai Jiao Tong University | Sophomore | Xiaoqiang Feng | Female | 157.0 | 43.0 | N | 2 | 2019/11/30 | 0:03:45 | -0.434701 | -0.909829 | 159.19697 |
166 | Shanghai Jiao Tong University | Senior | Xiaopeng Qian | Female | 154.3 | 46.0 | N | 3 | 2019/12/28 | 0:04:02 | -0.968933 | -0.354888 | 159.19697 |
100 | Tsinghua University | Senior | Xiaofeng Shi | Female | 164.4 | 55.0 | N | 1 | 2019/11/19 | 0:03:33 | 1.029491 | 1.309934 | 159.19697 |
... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... |
74 | Tsinghua University | Sophomore | Yanli Qin | Male | 169.4 | 74.0 | Y | 1 | 2019/9/3 | 0:03:32 | -0.599489 | 0.159631 | 173.62549 |
73 | Fudan University | Freshman | Feng Wang | Male | 176.3 | 74.0 | N | 1 | 2019/9/26 | 0:03:31 | 0.379445 | 0.159631 | 173.62549 |
72 | Peking University | Junior | Gaoquan Zhou | Male | 166.8 | 70.0 | N | 2 | 2019/9/5 | 0:04:24 | -0.968363 | -0.355000 | 173.62549 |
153 | Shanghai Jiao Tong University | Freshman | Changmei Lv | Male | 172.2 | 75.0 | N | 1 | 2019/10/6 | 0:04:15 | -0.202241 | 0.288289 | 173.62549 |
199 | Tsinghua University | Sophomore | Chunpeng Lv | Male | 155.7 | 51.0 | N | 1 | 2019/11/6 | 0:05:05 | -2.543169 | -2.799498 | 173.62549 |
200 rows × 13 columns
【练一练】
对于transform
方法无法像agg
一样,通过传入字典来对指定列使用特定的变换,如果需要在一次transform
的调用中实现这种功能,请给出解决方案。
【END】
gb.agg({"Height":"mean","Weight":"max"})
Height | Weight | |
---|---|---|
Gender | ||
Female | 159.19697 | 63.0 |
Male | 173.62549 | 89.0 |
gb.transform(lambda x :np.mean(x) if x.name == "Height" else max(x))
Height | Weight | |
---|---|---|
0 | 159.19697 | 63.0 |
1 | 173.62549 | 89.0 |
2 | 173.62549 | 89.0 |
3 | 159.19697 | 63.0 |
4 | 173.62549 | 89.0 |
... | ... | ... |
195 | 159.19697 | 63.0 |
196 | 159.19697 | 63.0 |
197 | 159.19697 | 63.0 |
198 | 173.62549 | 89.0 |
199 | 173.62549 | 89.0 |
200 rows × 2 columns
前面提到了transform
只能返回同长度的序列,但事实上还可以返回一个标量,这会使得结果被广播到其所在的整个组,这种
标
量
广
播
\color{#FF0000}{标量广播}
标量广播的技巧在特征工程中是非常常见的。例如,构造两列新特征来分别表示样本所在性别组的身高均值和体重均值:
gb.transform('mean').head() # 传入返回标量的函数也是可以的
Height | Weight | |
---|---|---|
0 | 159.19697 | 47.918519 |
1 | 173.62549 | 72.759259 |
2 | 173.62549 | 72.759259 |
3 | 159.19697 | 47.918519 |
4 | 173.62549 | 72.759259 |
2. 组索引与过滤
在上一章中介绍了索引的用法,那么索引和过滤有什么区别呢?
过滤在分组中是对于组的过滤,而索引是对于行的过滤,在第二章中的返回值,无论是布尔列表还是元素列表或者位置列表,本质上都是对于行的筛选,即如果符合筛选条件的则选入结果表,否则不选入。
组过滤作为行过滤的推广,指的是如果对一个组的全体所在行进行统计的结果返回True
则会被保留,False
则该组会被过滤,最后把所有未被过滤的组其对应的所在行拼接起来作为DataFrame
返回。
在groupby
对象中,定义了filter
方法进行组的筛选,其中自定义函数的输入参数为数据源构成的DataFrame
本身,在之前例子中定义的groupby
对象中,传入的就是df[['Height', 'Weight']]
,因此所有表方法和属性都可以在自定义函数中相应地使用,同时只需保证自定义函数的返回为布尔值即可。
例如,在原表中通过过滤得到所有容量大于100的组:
gb.filter(lambda x: x.shape[0] > 100).head()
Height | Weight | |
---|---|---|
0 | 158.9 | 46.0 |
3 | NaN | 41.0 |
5 | 158.0 | 51.0 |
6 | 162.5 | 52.0 |
7 | 161.9 | 50.0 |
【练一练】
从概念上说,索引功能是组过滤功能的子集,请使用filter
函数完成loc[...]
的功能,这里假设"...
"是元素列表。
【END】
四、跨列分组
1. apply的引入
之前几节介绍了三大分组操作,但事实上还有一种常见的分组场景,无法用前面介绍的任何一种方法处理,例如现在如下定义身体质量指数BMI:
B
M
I
=
W
e
i
g
h
t
H
e
i
g
h
t
2
{\rm BMI} = {\rm\frac{Weight}{Height^2}}
BMI=Height2Weight
其中体重和身高的单位分别为千克和米,需要分组计算组BMI的均值。
首先,这显然不是过滤操作,因此filter
不符合要求;其次,返回的均值是标量而不是序列,因此transform
不符合要求;最后,似乎使用agg
函数能够处理,但是之前强调过聚合函数是逐列处理的,而不能够
多
列
数
据
同
时
处
理
\color{#FF0000}{多列数据同时处理}
多列数据同时处理。由此,引出了apply
函数来解决这一问题。
2. apply的使用
在设计上,apply
的自定义函数传入参数与filter
完全一致,只不过后者只允许返回布尔值。现如下解决上述计算问题:
def BMI(x):
Height = x['Height']/100
Weight = x['Weight']
BMI_value = Weight/Height**2
return BMI_value.mean()
gb.apply(BMI)
Gender
Female 18.860930
Male 24.318654
dtype: float64
除了返回标量之外,apply
方法还可以返回一维Series
和二维DataFrame
,但它们产生的数据框维数和多级索引的层数应当如何变化?下面举三组例子就非常容易明白结果是如何生成的:
【a】标量情况:结果得到的是 Series
,索引与 agg
的结果一致
gb = df.groupby(['Gender','Test_Number'])[['Height','Weight']]
gb.apply(lambda x: 0)
Gender Test_Number
Female 1 0
2 0
3 0
Male 1 0
2 0
3 0
dtype: int64
gb.apply(lambda x: [0, 0]) # 虽然是列表,但是作为返回值仍然看作标量
Gender Test_Number
Female 1 [0, 0]
2 [0, 0]
3 [0, 0]
Male 1 [0, 0]
2 [0, 0]
3 [0, 0]
dtype: object
【b】Series
情况:得到的是DataFrame
,行索引与标量情况一致,列索引为Series
的索引
gb.apply(lambda x: pd.Series([0,0],index=['a','b']))
a | b | ||
---|---|---|---|
Gender | Test_Number | ||
Female | 1 | 0 | 0 |
2 | 0 | 0 | |
3 | 0 | 0 | |
Male | 1 | 0 | 0 |
2 | 0 | 0 | |
3 | 0 | 0 |
【练一练】
请尝试在apply
传入的自定义函数中,根据组的某些特征返回相同长度但索引不同的Series
,会报错吗?
【END】
gb.describe()
Height | Weight | ||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
count | mean | std | min | 25% | 50% | 75% | max | count | mean | std | min | 25% | 50% | 75% | max | ||
Gender | Test_Number | ||||||||||||||||
Female | 1 | 63.0 | 159.865079 | 4.578602 | 145.4 | 157.100 | 160.30 | 163.050 | 168.9 | 64.0 | 48.421875 | 5.141813 | 34.0 | 44.75 | 49.0 | 52.00 | 57.0 |
2 | 49.0 | 158.187755 | 5.622782 | 147.3 | 153.600 | 158.30 | 161.900 | 170.2 | 52.0 | 47.019231 | 5.879477 | 34.0 | 43.00 | 47.0 | 51.00 | 63.0 | |
3 | 20.0 | 159.565000 | 4.856171 | 150.5 | 155.175 | 160.15 | 163.250 | 170.0 | 19.0 | 48.684211 | 4.819551 | 40.0 | 46.00 | 50.0 | 51.50 | 56.0 | |
Male | 1 | 27.0 | 172.314815 | 6.529796 | 155.7 | 167.500 | 172.80 | 176.750 | 186.5 | 29.0 | 71.793103 | 8.226175 | 51.0 | 68.00 | 72.0 | 79.00 | 87.0 |
2 | 18.0 | 175.705556 | 7.552598 | 166.8 | 169.950 | 175.35 | 178.850 | 193.9 | 18.0 | 74.888889 | 6.153802 | 65.0 | 71.00 | 74.5 | 78.75 | 89.0 | |
3 | 6.0 | 173.283333 | 7.493842 | 162.4 | 170.725 | 173.00 | 175.275 | 185.3 | 7.0 | 71.285714 | 9.481812 | 58.0 | 66.00 | 73.0 | 74.50 | 87.0 |
# 会报错
try:
gb.apply(lambda x: pd.Series([0,0],index=['a','b']) if x.shape[0] > 10 else pd.Series([0,0],index=['c','b']))
except TypeError as e:
print(e)
Series.name must be a hashable type
【c】DataFrame
情况:得到的是DataFrame
,行索引最内层在每个组原先agg
的结果索引上,再加一层返回的DataFrame
行索引,同时分组结果DataFrame
的列索引和返回的DataFrame
列索引一致。
gb.apply(lambda x: pd.DataFrame(np.ones((2,2)), index = ['a','b'], columns=pd.Index([('w','x'),('y','z')])))
w | y | |||
---|---|---|---|---|
x | z | |||
Gender | Test_Number | |||
Female | 1 | a | 1.0 | 1.0 |
b | 1.0 | 1.0 | ||
2 | a | 1.0 | 1.0 | |
b | 1.0 | 1.0 | ||
3 | a | 1.0 | 1.0 | |
b | 1.0 | 1.0 | ||
Male | 1 | a | 1.0 | 1.0 |
b | 1.0 | 1.0 | ||
2 | a | 1.0 | 1.0 | |
b | 1.0 | 1.0 | ||
3 | a | 1.0 | 1.0 | |
b | 1.0 | 1.0 |
【练一练】
请尝试在apply
传入的自定义函数中,根据组的某些特征返回相同大小但列索引不同的DataFrame
,会报错吗?如果只是行索引不同,会报错吗?
【END】
最后需要强调的是,apply
函数的灵活性是以牺牲一定性能为代价换得的,除非需要使用跨列处理的分组处理,否则应当使用其他专门设计的groupby
对象方法,否则在性能上会存在较大的差距。同时,在使用聚合函数和变换函数时,也应当优先使用内置函数,它们经过了高度的性能优化,一般而言在速度上都会快于用自定义函数来实现。
【练一练】
在groupby
对象中还定义了cov
和corr
函数,从概念上说也属于跨列的分组处理。请利用之前定义的gb
对象,使用apply函数实现与gb.cov()
同样的功能并比较它们的性能。
【END】
gb.apply(lambda x:x.cov())
Height | Weight | |||
---|---|---|---|---|
Gender | Test_Number | |||
Female | 1 | Height | 20.963600 | 21.452034 |
Weight | 21.452034 | 26.438244 | ||
2 | Height | 31.615680 | 30.386170 | |
Weight | 30.386170 | 34.568250 | ||
3 | Height | 23.582395 | 20.801307 | |
Weight | 20.801307 | 23.228070 | ||
Male | 1 | Height | 42.638234 | 48.785833 |
Weight | 48.785833 | 67.669951 | ||
2 | Height | 57.041732 | 38.224183 | |
Weight | 38.224183 | 37.869281 | ||
3 | Height | 56.157667 | 84.020000 | |
Weight | 84.020000 | 89.904762 |
gb.cov()
Height | Weight | |||
---|---|---|---|---|
Gender | Test_Number | |||
Female | 1 | Height | 20.963600 | 21.452034 |
Weight | 21.452034 | 26.438244 | ||
2 | Height | 31.615680 | 30.386170 | |
Weight | 30.386170 | 34.568250 | ||
3 | Height | 23.582395 | 20.801307 | |
Weight | 20.801307 | 23.228070 | ||
Male | 1 | Height | 42.638234 | 48.785833 |
Weight | 48.785833 | 67.669951 | ||
2 | Height | 57.041732 | 38.224183 | |
Weight | 38.224183 | 37.869281 | ||
3 | Height | 56.157667 | 84.020000 | |
Weight | 84.020000 | 89.904762 |
五、练习
Ex1:汽车数据集
现有一份汽车数据集,其中Brand, Disp., HP
分别代表汽车品牌、发动机蓄量、发动机输出。
df = pd.read_csv('../data/car.csv')
df.head(3)
Brand | Price | Country | Reliability | Mileage | Type | Weight | Disp. | HP | |
---|---|---|---|---|---|---|---|---|---|
0 | Eagle Summit 4 | 8895 | USA | 4.0 | 33 | Small | 2560 | 97 | 113 |
1 | Ford Escort 4 | 7402 | USA | 2.0 | 33 | Small | 2345 | 114 | 90 |
2 | Ford Festiva 4 | 6319 | Korea | 4.0 | 37 | Small | 1845 | 81 | 63 |
- 先过滤出所属
Country
数超过2个的汽车,即若该汽车的Country
在总体数据集中出现次数不超过2则剔除,再按Country
分组计算价格均值、价格变异系数、该Country
的汽车数量,其中变异系数的计算方法是标准差除以均值,并在结果中把变异系数重命名为CoV
。 - 按照表中位置的前三分之一、中间三分之一和后三分之一分组,统计
Price
的均值。 - 对类型
Type
分组,对Price
和HP
分别计算最大值和最小值,结果会产生多级索引,请用下划线把多级列索引合并为单层索引。 - 对类型
Type
分组,对HP
进行组内的min-max
归一化。 - 对类型
Type
分组,计算Disp.
与HP
的相关系数。
# 1
df.groupby("Country").filter(lambda x:x.shape[0] > 2).groupby("Country")["Price"].agg([("CoV",lambda x:x.std()/x.mean()),"mean","count"])
CoV | mean | count | |
---|---|---|---|
Country | |||
Japan | 0.387429 | 13938.052632 | 19 |
Japan/USA | 0.240040 | 10067.571429 | 7 |
Korea | 0.243435 | 7857.333333 | 3 |
USA | 0.203344 | 12543.269231 | 26 |
# 2
df.shape
(60, 9)
condition = ["1"]*20+["2"]*20+["3"]*20
df.groupby(condition)["Price"].mean()
1 9069.95
2 13356.40
3 15420.65
Name: Price, dtype: float64
# 3
gb = df.groupby("Type").agg({'Price': ['max'], 'HP': ['min']})
col = [idx[0] + "_" + idx[1] for idx in gb.columns]
gb.columns = col
gb
Price_max | HP_min | |
---|---|---|
Type | ||
Compact | 18900 | 95 |
Large | 17257 | 150 |
Medium | 24760 | 110 |
Small | 9995 | 63 |
Sporty | 13945 | 92 |
Van | 15395 | 106 |
# 4
df.groupby("Type")["HP"].apply(lambda x : (x - x.min())/(x.max() - x.min())).head()
0 1.00
1 0.54
2 0.00
3 0.58
4 0.80
Name: HP, dtype: float64
df.groupby("Type")[["Disp.","HP"]].cov()
Disp. | HP | ||
---|---|---|---|
Type | |||
Compact | Disp. | 386.542857 | 174.057143 |
HP | 174.057143 | 228.171429 | |
Large | Disp. | 1754.333333 | -105.833333 |
HP | -105.833333 | 108.333333 | |
Medium | Disp. | 593.141026 | 209.596154 |
HP | 209.596154 | 539.576923 | |
Small | Disp. | 147.064103 | 103.512821 |
HP | 103.512821 | 199.769231 | |
Sporty | Disp. | 6576.861111 | 3072.958333 |
HP | 3072.958333 | 1890.750000 | |
Van | Disp. | 552.285714 | 400.452381 |
HP | 400.452381 | 431.952381 |
Ex2:实现transform函数
groupby
对象的构造方法是my_groupby(df, group_cols)
- 支持单列分组与多列分组
- 支持带有标量广播的
my_groupby(df)[col].transform(my_func)
功能 pandas
的transform
不能跨列计算,请支持此功能,即仍返回Series
但col
参数为多列- 无需考虑性能与异常处理,只需实现上述功能,在给出测试样例的同时与
pandas
中的transform
对比结果是否一致
df = pd.DataFrame({"a":[0,1,2,3,4,5],
"b":[1,2,3,0,5,5],
"c":[0,0,1,1,2,2]})
df
a | b | c | |
---|---|---|---|
0 | 0 | 1 | 0 |
1 | 1 | 2 | 0 |
2 | 2 | 3 | 1 |
3 | 3 | 0 | 1 |
4 | 4 | 5 | 2 |
5 | 5 | 5 | 2 |
df.groupby("c")
<pandas.core.groupby.generic.DataFrameGroupBy object at 0x000001F65AA3BF48>
class my_groupby:
def __init__(self, my_df, group_cols):
self.my_df = my_df.copy()
self.groups = my_df[group_cols].drop_duplicates()
if isinstance(self.groups, pd.Series):
self.groups = self.groups.to_frame()
self.group_cols = self.groups.columns.tolist()
self.groups = {i: self.groups[i].values.tolist() for i in self.groups.columns}
self.transform_col = None
def __getitem__(self, col):
self.pr_col = [col] if isinstance(col, str) else list(col)
return self
def transform(self, my_func):
self.num = len(self.groups[self.group_cols[0]])
L_order, L_value = np.array([]), np.array([])
for i in range(self.num):
group_df = self.my_df.reset_index().copy()
for col in self.group_cols:
group_df = group_df[group_df[col]==self.groups[col][i]]
group_df = group_df[self.pr_col]
if group_df.shape[1] == 1:
group_df = group_df.iloc[:, 0]
group_res = my_func(group_df)
if not isinstance(group_res, pd.Series):
group_res = pd.Series(group_res,index=group_df.index,name=group_df.name)
L_order = np.r_[L_order, group_res.index]
L_value = np.r_[L_value, group_res.values]
self.res = pd.Series(pd.Series(L_value, index=L_order).sort_index().values,index=self.my_df.reset_index().index, name=my_func.__name__)
return self.res
my_groupby(df,"c")
<__main__.my_groupby at 0x1f65aa552c8>
# 单列分组
df.groupby("c")["a"].transform(lambda x:x-x.mean())
0 -0.5
1 0.5
2 -0.5
3 0.5
4 -0.5
5 0.5
Name: a, dtype: float64
# 多列分组
df.groupby(["c","b"])["a"].transform(lambda x:x-x.mean())
0 0.0
1 0.0
2 0.0
3 0.0
4 -0.5
5 0.5
Name: a, dtype: float64
my_groupby(df,["c","b"])["a"].transform(lambda x:x-x.mean())
0 0.0
1 0.0
2 0.0
3 0.0
4 -0.5
5 0.5
Name: <lambda>, dtype: float64
# 标量广播
df.groupby("c")["a"].transform(lambda x:x.mean())
0 0.5
1 0.5
2 2.5
3 2.5
4 4.5
5 4.5
Name: a, dtype: float64
my_groupby(df,"c")["a"].transform(lambda x:x.mean())
0 0.5
1 0.5
2 2.5
3 2.5
4 4.5
5 4.5
Name: <lambda>, dtype: float64
my_groupby(df,"c")["a","b"].transform(lambda x:x.a*x.b)
0 0.0
1 2.0
2 6.0
3 0.0
4 20.0
5 25.0
Name: <lambda>, dtype: float64