第5章 合并

第5章 合并

本次跟随Datawhale组队学习Pandas基础,希望能有所收获。Datawhale是一个很好的开源组织,会组织很多免费的知识学习。

教程:地址

文章目录

一、思维导图

在这里插入图片描述

二、问题与练习

1. 问题

【问题一】 请思考什么是append/assign/combine/update/concat/merge/join各自最适合使用的场景,并举出相应的例子。
  • append: 通过dict Series或DataFrame对象向DataFrame对象添加新的行 不会修改原来的DataFrame 而是创建一个新的副本 是concat 在行添加方向的快捷方法
  • assign:通过Series 或者DataFrame中的可调用的列(lambda方法) 添加到DataFrame 返回一个DataFrame
  • combine: 与另一个DataFrame按列组合,这里是按照规则进行逐列组合,自动索引对齐,缺失值补充为NaN
  • update:使用来自另一个DataFrame的非NaN值就地进行修改,在索引上对齐,没有返回值
  • concat:通过dict Series或DataFrame在一个维度拼接另一个维度取并或交集 根据join方式 比较使用于添加任意数量的DataFrame 不过最好需要使用列表表达式,因为concat()制作了数据的完整副本
  • merge:将两个pandas对象横向合并,遇到重复的索引项时会使用笛卡尔积。与concat在axis=1的差别在于on参数可以指定在key值下连接
  • join:这是将两个可能具有不同索引的列DataFrames合并为单个结果的便捷方法

示例

## append 添加行

df1 = pd.DataFrame({'A': ['A0', 'A1', 'A2', 'A3'],
                        'B': ['B0', 'B1', 'B2', 'B3'],
                        'C': ['C0', 'C1', 'C2', 'C3'],
                        'D': ['D0', 'D1', 'D2', 'D3']},
                       index=[0, 1, 2, 3])
   

df2 = pd.DataFrame({'A': ['A4', 'A5', 'A6', 'A7'],
                        'B': ['B4', 'B5', 'B6', 'B7'],
                        'C': ['C4', 'C5', 'C6', 'C7'],
                        'D': ['D4', 'D5', 'D6', 'D7']},
                       index=[4, 5, 6, 7])
result = df1.append(df2, sort=False)
result

## assign 添加temp_f列

df3 = pd.DataFrame({'temp_c': [17.0, 25.0]},
                  index=['Portland', 'Berkeley'])
df3.assign(temp_f=df3['temp_c'] * 9 / 5 + 32)

## combine 进行df4与df5合并 按照take_smaller规则从df4和df5取列

df4 = pd.DataFrame({'A': [0, 0], 'B': [4, 4]})
take_smaller = lambda s1, s2: s1 if s1.sum() < s2.sum() else s2
df5 = pd.DataFrame({'B': [3, 3], 'C': [-10, 1]}, index=[1, 2])
## 第一种由于overwrite为False 第一列不填充  使得df4原来符合条件的值不会被覆盖
df4.combine(df5, take_smaller,overwrite=False)
## 第二种由于overwrite为True 第一列的取值看df5 
df4.combine(df5, take_smaller)

## update 更新B列值
new_column = pd.Series(['d', 'e','f','g'], name='B', index=[0,1,2,3])
df1.update(new_column)
df1

## concat 列轴连接df1 df2
result = pd.concat([df1, df4], axis=1).reindex(df1.index)
result

## merge 
df6 = pd.DataFrame({'A': ['A4', 'A5', 'A6', 'A7'],
                        'E': ['B4', 'B5', 'B6', 'B7'],
                        'F': ['C4', 'C5', 'C6', 'C7'],
                        'G': ['D4', 'D5', 'D6', 'D7']},
                       index=[4, 5, 6, 7])
pd.merge(df1, df6, how='outer', on='A')

## join 
df7 = pd.DataFrame({'key': ['K0', 'K1', 'K2', 'K3', 'K4', 'K5'],
                   'A': ['A0', 'A1', 'A2', 'A3', 'A4', 'A5']})
other = pd.DataFrame({'key': ['K0', 'K1', 'K2'],
                      'B': ['B0', 'B1', 'B2']})
df7.join(other, lsuffix='_caller', rsuffix='_other')
key_callerAkey_otherB
0K0A0K0B0
1K1A1K1B1
2K2A2K2B2
3K3A3NaNNaN
4K4A4NaNNaN
5K5A5NaNNaN
【问题二】 merge_ordered和merge_asof的作用是什么?和merge是什么关系?
  • merge_ordered:函数允许组合时间序列和其他有序数据。 特别是它有一个可选的fill_method关键字来填充/插入缺失的数据。
  • merge_asof:除了我们匹配最近的键而不是相等的键之外,其他的都类似于有序的left-join 。 对于左侧DataFrame中的每一行,我们选择右侧DataFrame中on键对应的值小于left的键对应的值的最后一行。 两个DataFrame必须按键排序。
【问题三】 请构造一个多级索引与多级索引合并的例子,尝试使用不同的合并函数。
leftindex = pd.MultiIndex.from_product([list('abc'), list('xy'), [1, 2]],names=['abc', 'xy', 'num'])
left = pd.DataFrame({'v1': range(12)}, index=leftindex)
rightindex = pd.MultiIndex.from_product([list('abc'), list('xy')],names=['abc', 'xy'])
right = pd.DataFrame({'v2': [100 * i for i in range(1, 7)]}, index=rightindex)
left.head()
right.head()
#left.append(right).head()
#pd.concat([left,right],sort=True).head()
pd.merge(left,right,on=['abc', 'xy'],how='inner').head()
left.join(right, on=['abc', 'xy'], how='inner').head()
v1v2
abcxynum
ax10100
21100
y12200
23200
bx14300
【问题四】 上文提到了连接的笛卡尔积,那么当连接方式变化时(inner/outer/left/right),这种笛卡尔积规则会相应变化吗?请构造相应例子。
  • inner:保留两对象都拥有的笛卡尔积
  • outer:保留全部的笛卡尔积
  • left:保留left对象所拥有的全部的笛卡尔积(默认缺失值用nan填充)
  • rifht:保留right对象所拥有的全部的笛卡尔积(默认缺失值用nan填充)
left = pd.DataFrame({'key1': ['K0', 'K0', 'K1', 'K2'],
                      'key2': ['K0', 'K1', 'K0', 'K1'],
                      'A': ['A0', 'A1', 'A2', 'A3'],
                      'B': ['B0', 'B1', 'B2', 'B3']})
 

right = pd.DataFrame({'key1': ['K0', 'K1', 'K1', 'K2'],
                      'key2': ['K0', 'K0', 'K0', 'K0'],
                      'C': ['C0', 'C1', 'C2', 'C3'],
                      'D': ['D0', 'D1', 'D2', 'D3']})


pd.merge(left, right, how='left', on=['key1','key2'])
#pd.merge(left, right, how='right', on=['key1','key2'])
#pd.merge(left, right, how='outer', on=['key1','key2'])
#pd.merge(left, right, how='inner', on=['key1','key2'])
key1key2ABCD
0K0K0A0B0C0D0
1K1K0A2B2C1D1
2K1K0A2B2C2D2
3K2K0NaNNaNC3D3

2. 练习

【练习一】有2张公司的员工信息表,每个公司共有16名员工,共有五个公司,请解决如下问题:
df1 = pd.read_csv('data/Employee1.csv')
df1.head()
CompanyNameAgeHeightWeightSalary
0Aa14718863.725819
1Aa33917255.921983
2Aa44315862.521755
3Aa64218276.917354
4Aa74917194.66177
df2 = pd.read_csv('data/Employee2.csv')
df2.head()
CompanyNameAgeHeightWeightSalary
0Aa13015691.228133
1Aa25019083.46673
2Aa33416896.616503
3Aa55117697.223294
4Aa63718393.219256
(a) 每个公司有多少员工满足如下条件:既出现第一张表,又出现在第二张表。
(b) 将所有不符合(a)中条件的行筛选出来,合并为一张新表,列名与原表一致。
© 现在需要编制所有80位员工的信息表,对于(b)中的员工要求不变,对于满足(a)条件员工,它们在某个指标的数值,取偏离它所属公司中满足(b)员工的均值数较小的哪一个,例如:P公司在两张表的交集为{p1},并集扣除交集为{p2,p3,p4},那么如果后者集合的工资均值为1万元,且p1在表1的工资为13000元,在表2的工资为9000元,那么应该最后取9000元作为p1的工资,最后对于没有信息的员工,利用缺失值填充。

a题做法

name1 = list(set(df1['Name']))
name1
name2 = list(set(df2['Name']))
name2
name = list(set(name1) & set(name2))
name
['a6',
 'e10',
 'b3',
 'b7',
 'e8',
 'a1',
 'a3',
 'b1',
 'd5',
 'c3',
 'c13',
 'c10',
 'c12',
 'e11',
 'b15',
 'd10']

b题做法

df_b1 = df1[~df1['Name'].isin(name)]
df_b2 = df2[~df2['Name'].isin(name)]
df_result = df_b1.append(df_b2).set_index('Name')
df_result.head()
CompanyAgeHeightWeightSalary
Name
a4A4315862.521755
a7A4917194.66177
a8A5116889.53246
a9A3618662.83569
a13A5819075.921854

c题这里我没有看懂直接看答案吧

## 读取数据
df1 = pd.read_csv('data/Employee1.csv')
df2 = pd.read_csv('data/Employee2.csv')
## 标记df1 与 df2中在两个表出现的记录为Y_1 Y_2
df1['重复'] = ['Y_1' if df1.loc[i,'Name'] in name else 'N' for i in range(df1.shape[0])]
df2['重复'] = ['Y_2' if df2.loc[i,'Name'] in name else 'N' for i in range(df2.shape[0])]
## 合成总表
df1 = df1.set_index(['Name','重复'])
df2 = df2.set_index(['Name','重复'])
df_c = pd.concat([df1,df2])

result = pd.DataFrame({'Company':[],'Name':[],'Age':[],'Height':[],'Weight':[],'Salary':[]})
group = df_c.groupby(['Company','重复'])
for i in name:
    first = group.get_group((i[0].upper(),'Y_1')).reset_index(level=1).loc[i,:][-4:]
    second = group.get_group((i[0].upper(),'Y_2')).reset_index(level=1).loc[i,:][-4:]
    mean = group.get_group((i[0].upper(),'N')).reset_index(level=1).mean()
    final = [i[0].upper(),i]
    for j in range(4):
        final.append(first[j] if abs(first[j]-mean[j])<abs(second[j]-mean[j]) else second[j])
    result = pd.concat([result,pd.DataFrame({result.columns.tolist()[k]:[final[k]] for k in range(6)})])
result = pd.concat([result.set_index('Name'),df_result])
for i in list('abcde'):
    for j in range(1,17):
        item = i+str(j)
        if item not in result.index:
            result = pd.concat([result,pd.DataFrame({'Company':[i.upper()],'Name':[item]
                 ,'Age':[np.nan],'Height':[np.nan],'Weight':[np.nan],'Salary':[np.nan]}).set_index('Name')])
result['Number'] = [int(i[1:]) for i in result.index]
result.reset_index().drop(columns='Name').set_index(['Company','Number']).sort_index().head()
AgeHeightWeightSalary
CompanyNumber
A147.0188.091.225819.0
250.0190.083.46673.0
339.0172.096.616503.0
443.0158.062.521755.0
551.0176.097.223294.0
【练习二】有2张课程的分数表(分数随机生成),但专业课(学科基础课、专业必修课、专业选修课)与其他课程混在一起,请解决如下问题:
df1 = pd.read_csv('data/Course1.csv')
df1.head(10)
课程名字课程类别学分分数
0思想道德修养与法律基础思政类389.0
1云计算应用与开发专业选修课396.0
2社会计算专业选修课378.0
3深度学习专业选修课375.0
4人工智能导论专业必修课384.0
5中国近代史纲要思政类397.0
6数据结构与算法学科基础课582.0
7开源软件设计与开发专业选修课381.0
8网球(初)体育类181.0
9大数据应用案例专业必修课391.0
df2 = pd.read_csv('data/Course2.csv')
df2.head(10)
课程名字课程类别学分分数
0高等数学(一)学科基础课499.0
1数据科学与工程导论学科基础课3NaN
2专业英语学科基础课2100.0
3概率论学科基础课399.0
4计算机系统专业必修课480.0
5数据科学与工程算法专业必修课399.0
6操作系统专业必修课489.0
7分布式模型与编程专业必修课481.0
8数据管理系统专业必修课670.0
9统计与数据分析基础专业必修课482.0
(a) 将两张表分别拆分为专业课与非专业课(结果为四张表)。
(b) 将两张专业课的分数表和两张非专业课的分数表分别合并。
© 不使用(a)中的步骤,请直接读取两张表合并后拆分。
(d) 专业课程中有缺失值吗,如果有的话请在完成(3)的同时,用组内(3种类型的专业课)均值填充缺失值后拆分。

a题答案

df_profess1 = df1[df1['课程类别'].isin(["学科基础课","专业必修课","专业选修课"])]
df_profess1
df_notprofess1 = df1[~df1['课程类别'].isin(["学科基础课","专业必修课","专业选修课"])]
df_notprofess1
df_profess2 = df2[df2['课程类别'].isin(["学科基础课","专业必修课","专业选修课"])]
df_profess2
df_notprofess2 = df2[~df2['课程类别'].isin(["学科基础课","专业必修课","专业选修课"])]
df_notprofess2
课程名字课程类别学分分数
25学术英语听说(二)英语类292.0
26学术英语阅读英语类272.0
27学术英语写作英语类298.0
28美国社会与文化英语类277.0
29马克思主义基本原理概论思政类395.0
30军事理论思政类287.0
31大学语文文化传承类2100.0
32现代交通地理学公共任意选修类288.0
33植物王国公共任意选修类292.0

b题做法

df_profess = pd.concat([df_profess1,df_profess2])
df_common = pd.concat([df_notprofess1,df_notprofess2])

c题做法

df_all = pd.concat([df1,df2])
df_profess_all = df_all[df_all['课程类别'].isin(["学科基础课","专业必修课","专业选修课"])]
df_common_all = df_all[~df_all['课程类别'].isin(["学科基础课","专业必修课","专业选修课"])]
(df_profess.equals(df_profess_all),df_common.equals(df_common_all))

d题做法

df_all = pd.concat([df1,df2])
df_all['分数'] = df_all.groupby('课程类别').transform(lambda x: x.fillna(x.mean()))['分数']
df_profess_all = df_all[df_all['课程类别'].isin(["学科基础课","专业必修课","专业选修课"])]
df_common_all = df_all[~df_all['课程类别'].isin(["学科基础课","专业必修课","专业选修课"])]
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值