python merge、concat合并数据集的实例讲解

本文详细介绍了如何使用Python的pandas库进行数据整合,包括merge函数的四种连接方式(内连接、外连接、左连接、右连接)及其参数,concat函数的轴向连接,以及combine_first函数在填充缺失值时的作用。通过实例展示了不同连接方式的效果,强调了索引合并和非重复索引合并的处理,以及如何处理重复的连接键和索引重叠情况。
摘要由CSDN通过智能技术生成

数据规整化:合并、清理、过滤

pandas和python标准库提供了一整套高级、灵活的、高效的核心函数和算法将数据规整化为你想要的形式!

本篇博客主要介绍:

合并数据集:.merge()、.concat()等方法,类似于SQL或其他关系型数据库的连接操作。

合并数据集

1) merge 函数参数

参数说明
left参与合并的左侧DataFrame
right参与合并的右侧DataFrame
how连接方式:‘inner'(默认);还有,‘outer'、‘left'、‘right'
on用于连接的列名,必须同时存在于左右两个DataFrame对象中,如果位指定,则以left和right列名的交集作为连接键
left_on左侧DataFarme中用作连接键的列
right_on右侧DataFarme中用作连接键的列
left_index将左侧的行索引用作其连接键
right_index将右侧的行索引用作其连接键
sort根据连接键对合并后的数据进行排序,默认为True。有时在处理大数据集时,禁用该选项可获得更好的性能
suffixes 

字符串值元组,用于追加到重叠列名的末尾,默认为(‘x',‘y').例如,左右两个DataFrame对象都有‘data',则结果中就会出现‘data_x',‘data_y' copy | 设置为False,可以在某些特殊情况下避免将数据复制到结果数据结构中。默认总是赋值

1、多对一的合并(一个表的连接键列有重复值,另一个表中的连接键没有重复值)

​
    import pandas as pd
    import numpy as np
    
    df1 = pd.DataFrame({'key':['b','b','a','c','a','a','b'],'data1': range(7)})
    
    df1
    
 data1key
00b
11b
22a
33c
44a
55a
66b
​
    df2 = pd.DataFrame({'key':['a','b','d'],'data2':range(3)})
    
    df2
    
 data2key
00a
11b
22d
​
    pd.merge(df1,df2)#默认情况
 data1keydata2
00b1
11b1
26b1
32a0
44a0
55a0
​
    df1.merge(df2)
 data1keydata2
00b1
11b1
26b1
32a0
44a0
55a0
​
    df1.merge(df2,on = 'key',how = 'inner')#内连接,取交集
 data1keydata2
00b1
11b1
26b1
32a0
44a0
55a0
​
    df1.merge(df2,on = 'key',how = 'outer')#外链接,取并集,并用nan填充
 data1keydata2
00.0b1.0
11.0b1.0
26.0b1.0
32.0a0.0
44.0a0.0
55.0a0.0
63.0cNaN
7NaNd2.0
​
    df1.merge(df2,on = 'key',how = 'left')#左连接,左侧DataFrame取全部,右侧DataFrame取部分
 data1keydata2
00b1.0
11b1.0
22a0.0
33cNaN
44a0.0
55a0.0
66b1.0
​
    df1.merge(df2,on = 'key',how = 'right')#右连接,右侧DataFrame取全部,左侧DataFrame取部分
 data1keydata2
00.0b1
11.0b1
26.0b1
32.0a0
44.0a0
55.0a0
6NaNd2

如果左右侧DataFrame的连接键列名不一致,但是取值有重叠,可使用left_on、right_on来指定左右连接键

    df3 = pd.DataFrame({'lkey':['b','b','a','c','a','a','b'],'data1': range(7)})
    
    df3
    
 data1lkey
00b
11b
22a
33c
44a
55a
66b
    df4 = pd.DataFrame({'rkey':['a','b','d'],'data2':range(3)})
    
    df4
 data2rkey
00a
11b
22d
    df3.merge(df4,left_on = 'lkey',right_on = 'rkey',how = 'inner')
 data1lkeydata2rkey
00b1b
11b1b
26b1b
32a0a
44a0a
55a0a

2、多对多的合并(一个表的连接键列有重复值,另一个表中的连接键有重复值)

    df1 = pd.DataFrame({'key':['b','b','a','c','a','a','b'],'data1': range(7)})
    
    df1
    
 data1key
00b
11b
22a
33c
44a
55a
66b
    df5 = pd.DataFrame({'key':['a','b','a','b','b'],'data2': range(5)})
    df5
 data2key
00a
11b
22a
33b
44b
    df1.merge(df5)
 data1keydata2
00b1
10b3
20b4
31b1
41b3
51b4
66b1
76b3
86b4
92a0
102a2
114a0
124a2
135a0
145a2

合并小结

1)默认情况下,会将两个表中相同列名作为连接键

2)多对多,会采用笛卡尔积形式链接(左表连接键有三个值‘1,3,5',右表有两个值‘2,3',则会形成,(1,2)(1,3)(3,1),(3,2)。。。6种组合)

3)存在多个连接键的处理

    left = pd.DataFrame({'key1':['foo','foo','bar'],'key2':['one','one','two'],'lval':[1,2,3]})
    
    right = pd.DataFrame({'key1':['foo','foo','bar','bar'],'key2':['one','one','one','two'],'rval':[4,5,6,7]})
    
    left
 key1key2lval
0fooone1
1fooone2
2bartwo3
    right
 key1key2rval
0fooone4
1fooone5
2barone6
3bartwo7
    pd.merge(left,right,on = ['key1','key2'],how = 'outer')
 key1key2lvalrval
0fooone1.04
1fooone1.05
2fooone2.04
3fooone2.05
4bartwo3.07
5baroneNaN6

1)连接键是多对多关系,应执行笛卡尔积形式

2)多列应看连接键值对是否一致

4)对连接表中非连接列的重复列名的处理

    pd.merge(left,right,on = 'key1')
 key1key2_xlvalkey2_yrval
0fooone1one4
1fooone1one5
2fooone2one4
3fooone2one5
4bartwo3one6
5bartwo3two7
    pd.merge(left,right,on = 'key1',suffixes = ('_left','_right'))
 key1key2_leftlvalkey2_rightrval
0fooone1one4
1fooone1one5
2fooone2one4
3fooone2one5
4bartwo3one6
5bartwo3two7

2)索引上的合并

当连接键位于索引中时,成为索引上的合并,可以通过merge函数,传入left_index、right_index来说明应该被索引的情况。

一表中连接键是索引列、另一表连接键是非索引列

    left1 = pd.DataFrame({'key':['a','b','a','a','b','c'],'value': range(6)})
    left1
 keyvalue
0a0
1b1
2a2
3a3
4b4
5c5
    right1 = pd.DataFrame({'group_val':[3.5,7]},index = ['a','b'])
    right1
 group_val
a3.5
b7.0
    pd.merge(left1,right1,left_on = 'key',right_index = True)
 keyvaluegroup_val
0a03.5
2a23.5
3a33.5
1b17.0
4b47.0

有上可知,left_on、right_on是指定表中非索引列为连接键,left_index、right_index是指定表中索引列为连接键,两者可以组合,是为了区分是否是索引列

两个表中的索引列都是连接键

    left2 = pd.DataFrame(np.arange(6).reshape(3,2),index = ['a','b','e'],columns = ['0hio','nevada'])
    
    right2 = pd.DataFrame(np.arange(7,15).reshape(4,2),index = ['b','c','d','e'],columns = ['misso','ala'])
    
    left2
 0hionevada
a01
b23
e45
    right2
 missoala
b78
c910
d1112
e1314
    pd.merge(left2,right2,left_index = True,right_index = True,how = 'outer')
 0hionevadamissoala
a0.01.0NaNNaN
b2.03.07.08.0
cNaNNaN9.010.0
dNaNNaN11.012.0
e4.05.013.014.0

3)轴向连接

在这里展示一种新的连接方法,对应于numpy的concatenate函数,pandas有concat函数

    #numpy
    arr =np.arange(12).reshape(3,4)
    arr
     array([[ 0, 1, 2, 3],
       [ 4, 5, 6, 7],
       [ 8, 9, 10, 11]])
    np.concatenate([arr,arr],axis = 1)#横轴连接块
     
     array([[ 0, 1, 2, 3, 0, 1, 2, 3],
       [ 4, 5, 6, 7, 4, 5, 6, 7],
       [ 8, 9, 10, 11, 8, 9, 10, 11]])

concat函数参数表格

参数说明
objs参与连接的列表或字典,且列表或字典里的对象是pandas数据类型,唯一必须给定的参数
axis=0指明连接的轴向,0是纵轴,1是横轴,默认是0
join‘inner'(交集),‘outer'(并集),默认是‘outer'指明轴向索引的索引是交集还是并集
join_axis指明用于其他n-1条轴的索引(层次化索引,某个轴向有多个索引),不执行交并集
keys与连接对象有关的值,用于形成连接轴向上的 层次化索引

(外层索引),可以是任意值的列表或数组、元组数据、数组列表(如果将levels设置成多级数组的话) levels | 指定用作层次化索引各级别(内层索引)上的索引,如果设置keys的话 names | 用于创建分层级别的名称,如果设置keys或levels的话 verify_integrity | 检查结果对象新轴上的重复情况,如果发横则引发异常,默认False,允许重复 ignore_index | 不保留连接轴上的索引,产生一组新索引range(total_length)

    s1 = pd.Series([0,1,2],index = ['a','b','c'])
    
    s2 = pd.Series([2,3,4],index = ['c','f','e'])
    
    s3 = pd.Series([4,5,6],index = ['c','f','g'])
    pd.concat([s1,s2,s3])#默认并集、纵向连接

a 0 b 1 c 2 c 2 f 3 e 4 c 4 f 5 g 6 dtype: int64

    pd.concat([s1,s2,s3],ignore_index = True)#生成纵轴上的并集,索引会自动生成新的一列

0 0 1 1 2 2 3 2 4 3 5 4 6 4 7 5 8 6 dtype: int64

    pd.concat([s1,s2,s3],axis = 1,join = 'inner')#纵向取交集,注意该方法对对象表中有重复索引时失效
 012
c224
    pd.concat([s1,s2,s3],axis = 1,join = 'outer')#横向索引取并集,纵向索引取交集,注意该方法对对象表中有重复索引时失效
    
 012
a0.0NaNNaN
b1.0NaNNaN
c2.02.04.0
eNaN4.0NaN
fNaN3.05.0
gNaNNaN6.0

concat函数小结

1)纵向连接,ignore_index = False ,可能生成重复的索引

2)横向连接时,对象索引不能重复

4)合并重叠数据

适用范围:

1)当两个对象的索引有部分或全部重叠时

2)用参数对象中的数据为调用者对象的缺失数据‘打补丁'

    a = pd.Series([np.nan,2.5,np.nan,3.5,4.5,np.nan],index = ['a','b','c','d','e','f'])
    
    b = pd.Series(np.arange(len(a)),index = ['a','b','c','d','e','f'])
    
    a
    a NaN
    b 2.5
    c NaN
    d 3.5
    e 4.5
    f NaN
    dtype: float64
    b
    
    a 0
    b 1
    c 2
    d 3
    e 4
    f 5
    dtype: int32
    a.combine_first(b)#利用b填补了a的空值
    a 0.0
    b 2.5
    c 2.0
    d 3.5
    e 4.5
    f 5.0
    dtype: float64
    a = pd.Series([np.nan,2.5,np.nan,3.5,4.5,np.nan],index = ['g','b','c','d','e','f'])
    a.combine_first(b)#部分索引重叠
    a 0.0
    b 2.5
    c 2.0
    d 3.5
    e 4.5
    f 5.0
    g NaN
    dtype: float64

小结

本篇博客主要讲述了一下内容:

1) merge函数合并数据集

2)concat函数合并数据集

3)combine_first函数,含有重叠索引的缺失值填补

以上这篇python merge、concat合并数据集的实例讲解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。

 

### 回答1: Python数据分析中,pandas是一个非常重要的库,它提供了一种灵活、高效、易用的数据结构,可以帮助我们进行数据清洗、数据处理、数据分析等工作。下面是一些pandas实例: 1. 读取数据:pandas可以读取多种格式的数据,如csv、excel、json等。使用read_csv、read_excel、read_json等函数可以读取相应格式的数据文件。 2. 数据清洗:pandas可以帮助我们清洗数据,如去除重复值、处理缺失值、替换异常值等。使用drop_duplicates、dropna、fillna、replace等函数可以实现相应的功能。 3. 数据分组:pandas可以将数据按照某些条件进行分组,然后对每组数据进行统计分析。使用groupby函数可以实现数据分组。 4. 数据聚合:pandas可以对数据进行聚合操作,如求和、求平均值、求最大值、求最小值等。使用sum、mean、max、min等函数可以实现相应的聚合操作。 5. 数据合并:pandas可以将多个数据集合并成一个数据集,可以按照某些条件进行合并。使用mergeconcat等函数可以实现数据合并。 6. 数据可视化:pandas可以将数据进行可视化展示,如绘制柱状图、折线图、散点图等。使用plot函数可以实现数据可视化。 以上是一些pandas实例,希望对你有所帮助。 ### 回答2: Python数据分析的关键点之一是数据可以以各种方式被处理和探索。对于数据处理,Pandas是一个非常有用的Python库,它提供了各种功能和方法来处理不同类型的数据。 Pandas 对于大数据集提供了广泛的支持,使其能够在实践中使用。让我们来看一些Python数据分析的Pandas实例,了解Pandas的主要功能和应用。 1. 读取数据 在Python中使用Pandas库导入数据集是很简单的。我们可以使用 read_csv() 函数来读取csv文件, read_excel() 函数来读取Excel文件等等。例如,以下代码可以读取CSV格式的数据: import pandas as pd data = pd.read_csv("data.csv") 2. 数据清洗 在数据的每个行或列中,我们有时会遇到缺失值或不必要的数据。在这种情况下,我们可以使用 Pandas 来清洗数据。以下是一些数据清洗的示例: # 删除列 data = data.drop('column_name', axis=1) # 删除行 data = data.drop(data.index[[0,1,2]]) # 替换NaN值 data = data.fillna(method="ffill") # 去除重复值 data = data.drop_duplicates() 3. 数据分组和聚合 Pandas库提供了一些函数来处理分组和聚合数据。Pandas中的groupby()方法可以将数据按照一个或多个列进行分组。以下是一些数据分组和聚合的示例: # 按照列分组 grouped = data.groupby('column_name') # 按照多列分组 grouped = data.groupby(['col1', 'col2']) # 聚合 aggregated = grouped.aggregate(np.sum) 4. 数据可视化 数据可视化是数据分析的最重要环节之一。在Pandas中,提供了许多有用的可视化工具。因此,我们可以在我们的分析中使用这些库来更好地理解数据。以下是一些数据可视化的示例: # 绘制柱状图 data.plot(kind='bar') # 绘制折线图 data.plot(kind='line') # 绘制散点图 data.plot(kind='scatter') 总结 在Python数据分析中,Pandas是一个强大的工具,可以让我们方便、高效地处理、分析和探索数据。通过将数据读入Pandas,清洗数据,聚合数据并将结果可视化,我们可以更好地理解和分析数据集。以上是一些Python数据分析Pandas实例的简单介绍,希望能够对你在数据分析方面有所帮助。 ### 回答3: Python是一种非常流行的编程语言,适用于各种数据分析和科学计算。Pandas是Python的一个开源库,广泛用于数据分析和数据处理。Pandas提供了许多数据结构和函数,使得数据分析和操作变得更加方便和高效。 Pandas的主要数据结构是Series和DataFrame。Series是一维数据结构,类似于Python的列表,但具有更多的功能,例如索引、行标签和数据类型等。DataFrame是二维数据结构,类似于电子表格,包含多个列和行,每列可以有不同的数据类型。 Pandas提供了多种操作数据的函数和方法,例如处理缺失值、删除重复行、拆分和合并数据等。其中,处理缺失值是数据分析中常见的问题之一,Pandas提供了fillna和dropna两个函数来处理缺失值。fillna函数用于用指定的值或方法填充缺失值,而dropna函数可以删除包含缺失值的行或列。 除了数据预处理,Pandas还支持各种数据分析和绘图功能。例如,可以使用groupby函数按组分析数据,使用pivot_table函数创建数据透视表,使用merge函数合并数据集,还可以使用plot函数绘制各种图表,例如直方图、折线图和散点图等。 总的来说,Pandas是Python数据分析的重要工具之一,它提供了丰富的功能和易用的API,使得数据分析变得更加高效和方便。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值