pandas-分组

pandas-分组

一、SAC过程

SAC指的是分组操作中的split-apply-combine过程,其中split指基于某一些规则,将数据成若干组,apply是指对每一组独立地使用函数,combine指将每一组的结果组合成某一类数据结构。在apply过程
往往会遇到四类问题:

  1. 整合(Aggregation)——即分组计算统计量(如求均值、求每组元素个数)
  2. 变换(Transformation)——即分组对每个单元的数据进行操作(如元素标准化)
  3. 过滤(Filtration)——即按照某些规则筛选出一些组(如选出组内某一指标小于50的
  4. 综合问题——即前面提及的三种问题的混合组)

二、groupby函数

1、分组函数的基本内容
#(a)根据某一列分组
grouped_single = df.groupby('School')#将数据集按照'School'分组,经过groupby后会生成一个groupby对象,该对象本身不会返回任何东西,只有当相应的方法被调用才会起作用
grouped_single.get_group('S_2')#用get_group()提取某一组

#(b)根据某几列分组
grouped_mul = df.groupby(['School','Class'])#多列分组,对象本身不会返回任何东西
grouped_mul.get_group(('S_2','C_4'))#多列分组下的提取

#(c)组容量与组数
grouped_single.size()#显示出分组基本形态size()
grouped_mul.size()
grouped_single.ngroups#显示出总的分组个数ngroups,2个
grouped_mul.ngroups#7个分组组合

#(d)组的遍历
for name,group in grouped_single:
    print(name)
    display(group.head())
#遍历两个分组,显示出各组名称以及分组后的group小组情况
#(e)level参数(用于多级索引)和axis参数
df.set_index(['Gender','School']).groupby(level=1,axis=0).get_group('S_1').head()
2. groupby对象的特点
#(a)查看所有可调用的方法
print([attr for attr in dir(grouped_single) if not attr.startswith('_')])
#由此可见,groupby对象可以使用相当多的函数,灵活程度很高

#b)分组对象的head和first
grouped_single.head(2)
#对分组对象使用head函数,返回的是每个组的前几行,而不是数据集前几行
#first显示的是以分组为索引的每组的第一个分组信息
grouped_single.first()

#c)分组依据
#对于groupby函数而言,分组的依据是非常自由的,只要是与数据框长度相同的列表即可,同时支持函数型分组
df.groupby(np.random.choice(['a','b','c'],df.shape[0])).get_group('a').head()
#相当于将np.random.choice(['a','b','c'],df.shape[0])当做新的一列进行分组,任意产生了一列完整的a,b,c构成的序列,然后提取出是a组
np.random.choice(['a','b','c'],df.shape[0])
#从原理上说,我们可以看到利用函数时,传入的对象就是索引,因此根据这一特性可以做一些复杂的操作
df[:5].groupby(lambda x:print(x)).head(0)
#根据奇偶行分组
df.groupby(lambda x:'奇数行' if not df.index.get_loc(x)%2==1 else '偶数行').groups
#可以用[]选出groupby对象的某个或者某几个列,上面的均分比较可以如下简洁地写出:

#(d)groupby的[]操作
df.groupby(['Gender','School'])['Math'].mean()>=60#判断分组后各组Math是否及格
#用列表可选出多个属性列:
df.groupby(['Gender','School'])[['Math','Height']].mean()#多个属性列

#(e)连续型变量分组
#例如利用cut函数对数学成绩分组:
bins = [0,40,60,80,90,100]
cuts = pd.cut(df['Math'],bins=bins) #可选label添加自定义标签,自行创建分组依据
df.groupby(cuts)['Math'].count()

连续型变量cut函数分组结果显示
Math
(0, 40] 7
(40, 60] 10
(60, 80] 9
(80, 90] 7
(90, 100] 2
Name: Math, dtype: int64

三、聚合、过滤和变换

  1. 整合(Aggregation)——即分组计算统计量(如求均值、求每组元素个数)
  2. 变换(Transformation)——即分组对每个单元的数据进行操作(如元素标准化)
  3. 过滤(Filtration)——即按照某些规则筛选出一些组
1. 聚合(Aggregation)
#(a)常用聚合函数
#所谓聚合就是把一堆数,变成一个标量,因此mean/sum/size/count/std/var/sem/describe/first/last/nth/min/max都是聚合函数
group_m = grouped_single['Math']
group_m.std().values/np.sqrt(group_m.count().values)== group_m.sem().values#用标准误sem函数验证

#(b)同时使用多个聚合函数
group_m.agg(['sum','mean','std'])#显示出每个分组的聚合函数结果
#利用元组进行重命名
group_m.agg([('rename_sum','sum'),('rename_mean','mean')])
#指定哪些函数作用哪些列
grouped_mul.agg({'Math':['mean','max'],'Height':'var'})

#(c)使用自定义函数
grouped_single['Math'].agg(lambda x:print(x.head(),'间隔'))
#可以发现,agg函数的传入是分组逐列进行的,有了这个特性就可以做许多事情
#官方没有提供极差计算的函数,但通过agg可以容易地实现组内极差计算
grouped_single['Math'].agg(lambda x:x.max()-x.min())

#(d)利用NamedAgg函数进行多个聚合
#注意:不支持lambda函数,但是可以使用外置的def函数
def R1(x):
    return x.max()-x.min()
def R2(x):
    return x.max()-x.median()
grouped_single['Math'].agg(min_score1=pd.NamedAgg(column='col1', aggfunc=R1),
                           max_score1=pd.NamedAgg(column='col2', aggfunc='max'),
                           range_score2=pd.NamedAgg(column='col3', aggfunc=R2)).head()
#NamedAgg不支持lambda函数,外置def极差和R2函数,NamedAgg(列,自定义函数)

在这里插入图片描述

#(e)带参数的聚合函数
#判断是否组内数学分数至少有一个值在50-52之间:
def f(s,low,high):
    return s.between(low,high).max()
grouped_single['Math'].agg(f,50,52)
如果需要使用多个函数,并且其中至少有一个带参数,则使用wrap技巧:
def f_test(s,low,high):
    return s.between(low,high).max()
def agg_f(f_mul,name,*args,**kwargs):
    def wrapper(x):
        return f_mul(x,*args,**kwargs)
    wrapper.__name__ = name
    return wrapper
new_f = agg_f(f_test,'at_least_one_in_50_52',50,52)
grouped_single['Math'].agg([new_f,'mean']).head()

在这里插入图片描述

2. 过滤(Filteration)

filter函数是用来筛选某些组的(务必记住结果是组的全体),因此传入的值应当是布尔标量。这也是之所以索引已经能够选出某些符合条件的子集,还要设计过滤函数的原因解释。

grouped_single[['Math','Physics']].filter(lambda x:(x['Math']>32).all()).head()

在这里插入图片描述

3. 变换(Transformation)

变换可以做标准化处理

#(a)传入对象
# transform函数中传入的对象是组内的列,并且返回值需要与列长完全一致
grouped_single[['Math','Height']].transform(lambda x:x-x.min()).head()
如果返回了标量值,那么组内的所有元素会被广播为这个值
grouped_single[['Math','Height']].transform(lambda x:x.mean()).head()

#(b)利用变换方法进行组内标准化
grouped_single[['Math','Height']].transform(lambda x:(x-x.mean())/x.std()).head()

#(c)利用变换方法进行组内缺失值的均值填充
df_nan = df[['Math','School']].copy().reset_index()
df_nan.loc[np.random.randint(0,df.shape[0],25),['Math']]=np.nan
df_nan.groupby('School').transform(lambda x: x.fillna(x.mean())).join(df.reset_index()['School']).head()

填充前后如下图表
在这里插入图片描述
在这里插入图片描述
此处是使用均值填充,类似填充方法还有fillna的前向/后向填充,即ffill用前一个非缺失值去填充该缺失值,bfill用后一个非缺失值去填充该缺失值。通过
df.fillna(method=‘ffill’)、df.fillna(method=‘ffill’)就可以实现。

四、apply函数

1. apply函数的灵活性
df.groupby('School').apply(lambda x:print(x.head(1)))#每个分组的第一个观测
#apply函数的灵活性很大程度来源于其返回值的多样性:
#① 标量返回值
df[['School','Math','Height']].groupby('School').apply(lambda x:x.max())
#② 列表返回值
df[['School','Math','Height']].groupby('School').apply(lambda x:x-x.min()).head()
#③ 数据框返回值
df[['School','Math','Height']].groupby('School')\
    .apply(lambda x:pd.DataFrame({'col1':x['Math']-x['Math'].max(),
                                  'col2':x['Math']-x['Math'].min(),
                                  'col3':x['Height']-x['Height'].max(),
                                  'col4':x['Height']-x['Height'].min()})).head()
2. 用apply同时统计多个指标
#此处可以借助OrderedDict工具进行快捷的统计:
from collections import OrderedDict
def f(df):
    data = OrderedDict()
    data['M_sum'] = df['Math'].sum()
    data['W_var'] = df['Weight'].var()
    data['H_mean'] = df['Height'].mean()
    return pd.Series(data)
grouped_single.apply(f)

在这里插入图片描述

练习

1、如何计算组内0.25分位数与0.75分位数?要求显示在同一张表上。

def P1(x):
    return np.percentile(x,25)
def P2(x):
    return np.percentile(x,75)
grouped_single.agg(percentile_25=pd.NamedAgg(column='Math', aggfunc=P1),
                           percentile_75=pd.NamedAgg(column='Math', aggfunc=P2))

2、【练习一】: 现有一份关于diamonds的数据集,列分别记录了克拉数、颜色、开采深度、价格,请解决下列问题:

df = pd.read_csv('C:/Users/Kingfish/Desktop/joyful-pandas-master/joyful-pandas-master/data/Diamonds.csv')
df.head()

在这里插入图片描述
(a) 在所有重量超过1克拉的钻石中,价格的极差是多少?

df1 = df.query('carat>1')['price']
df1.max()-df1.min(

(b) 若以开采深度的0.2\0.4\0.6\0.8分位数为分组依据,每一组中钻石颜色最多的是哪一种?该种颜色是组内平均而言单位重量最贵的吗?

bins = df['depth'].quantile(np.linspace(0,1,6)).tolist()#0.2\0.4\0.6\0.8分位数为分组依据
cuts = pd.cut(df['depth'],bins=bins) #可选label添加自定义标签
df['cuts'] = cuts
df.head()

在这里插入图片描述

grouped_single = df.groupby('cuts')['color'].describe()
grouped_single 

在这里插入图片描述

df['均重价格']=df['price']/df['carat']#定义均重价格变量
grouped_single['top'] == [i[1] for i in df.groupby(['cuts'
                                ,'color'])['均重价格'].mean().groupby(['cuts']).idxmax().values]

© 以重量分组(0-0.5,0.5-1,1-1.5,1.5-2,2+),按递增的深度为索引排序,求每组中连续的严格递增价格序列长度的最大值。

df = df.drop(columns='均重价格')
cuts = pd.cut(df['carat'],bins=[0,0.5,1,1.5,2,np.inf]) #可选label添加自定义标签
df['cuts'] = cuts
df.head()
def f(nums):
    if not nums:        
        return 0
    res = 1                            
    cur_len = 1                        
    for i in range(1, len(nums)):      
        if nums[i-1] < nums[i]:        
            cur_len += 1                
            res = max(cur_len, res)     
        else:                       
            cur_len = 1                 
    return res
for name,group in df.groupby('cuts'):
    group = group.sort_values(by='depth')
    s = group['price']
    print(name,f(s.tolist()))

(d) 请按颜色分组,分别计算价格关于克拉数的回归系数。(单变量的简单线性回归,并只使用Pandas和Numpy完成)

for name,group in df[['carat','price','color']].groupby('color'):
    L1 = np.array([np.ones(group.shape[0]),group['carat']]).reshape(2,group.shape[0])
    L2 = group['price']
    result = (np.linalg.inv(L1.dot(L1.T)).dot(L1)).dot(L2).reshape(2,1)
    print('当颜色为%s时,截距项为:%f,回归系数为:%f'%(name,result[0],result[1]))
  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: pandas-official-tut-zh epub是指Pandas官方教程的中文电子书格式。Pandas是一个强大的数据分析和处理库,被广泛应用于数据科学和数据分析领域。Pandas官方教程提供了详细的指导和示例,帮助用户学习和使用Pandas库。 这本Pandas官方教程的中文电子书以epub格式提供,这意味着我们可以在支持epub格式的电子书阅读器或软件中阅读它。epub格式是一种开放的电子书标准,可以自由地在各种平台上阅读,如电脑、平板电脑、智能手机等。使用epub格式的好处是,它可以根据设备的屏幕尺寸和用户的设置自动调整页面布局和字体大小,提供更好的阅读体验。 这本教程的目标是帮助读者从零开始学习Pandas,并逐步深入了解其功能和用法。它提供了丰富的示例代码和实践演练,以帮助读者掌握Pandas的各种技术和技巧。教程涵盖了Pandas的基本数据结构,如Series和DataFrame,以及它们的索引、切片、过滤、排序等操作。此外,还介绍了Pandas的数据清洗、处理缺失值、数据合并、分组聚合等高级技术。 这本教程的中文版本使更多母语为中文的读者能够更轻松地学习和理解Pandas的概念和功能。epub格式的电子书具有良好的可读性和易于导航的特点,读者可以根据自己的需求和节奏进行学习,随时随地获取所需的知识。 总之,pandas-official-tut-zh epub是一本Pandas官方教程的中文电子书,提供了全面且易于理解的Pandas学习资源,可帮助读者入门并熟练使用该库。无论是初学者还是有经验的数据科学家,都可以从中受益,并将其应用于实际的数据分析项目中。 ### 回答2: pandas-official-tut-zh epub是一本关于pandas库的官方指南的电子书。Pandas是一个强大的数据分析工具,它使用Python编程语言开发。这本电子书提供了从基础概念到高级用法的全面介绍,将帮助读者掌握该库的各种功能和技巧。 该电子书以易于理解和直观的方式解释了pandas库的核心概念,如数据结构、索引和选择、数据聚合和生成等。读者可以通过电子书学习如何使用pandas来处理、清洗和分析各种类型的数据,包括结构化数据、时间序列数据和文本数据。 电子书的内容结构清晰,各章节之间有明确的连贯性,使读者可以系统地学习和理解pandas库的功能和用法。除了基本的数据操作,该电子书还介绍了一些高级特性,如数据合并、重塑和透视等,以及与其他Python工具库的集成。 pandas-official-tut-zh epub不仅提供了理论知识,还包含了丰富的实例代码和可运行的示例,读者可以通过这些实例更深入地理解和运用pandas库。此外,该电子书还提供了一些实际的案例研究,展示了pandas在真实世界中的应用。 总之,pandas-official-tut-zh epub是一本非常有价值的电子书,适合对数据处理和分析感兴趣的读者。无论是初学者还是有一定经验的开发者,都可以从该电子书中获得关于pandas库的全面指导和实用技巧。 ### 回答3: pandas-official-tut-zh epub是一个关于Python数据分析库Pandas的中文官方教程的电子书文件。Pandas是一个强大的数据处理和分析工具,可用于处理和操作大型数据集。 首先,这本电子书是官方教程,意味着内容是由Pandas的开发团队编写的,可以保证信息的准确性和可靠性。它提供了详细的指导和示例,帮助读者了解Pandas的基本功能和高级技术。 这本教程以epub格式提供,这意味着它可以在各种电子设备上进行阅读,如电脑、平板电脑和智能手机。由于epub格式具有自适应屏幕大小和排版的优势,因此读者可以在任何设备上获得良好的阅读体验。 该教程分为多个章节,从介绍Pandas的基本概念和数据结构开始,逐步深入讲解Pandas的应用和高级功能。它涵盖了数据清洗、转换、聚合、合并等方面的常见任务,以及时间序列和数据可视化等更高级的主题。 读者可以通过学习这本教程来掌握Pandas的核心概念和操作技巧,从而更有效地进行数据分析和处理。这对于数据科学家、数据分析师和Python开发者来说都是非常有价值的资源。 总而言之,pandas-official-tut-zh epub是一本官方编写的关于Python数据分析库Pandas的中文教程电子书,为读者提供了全面而系统的学习资源,帮助他们掌握Pandas的各种功能和技术。无论是初学者还是有经验的用户都可以从中受益,并且它的epub格式使得阅读更加方便和灵活。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值