随笔记录——pandas(数据联合与合并)

包含在pandas对象的数据可以通过多种方式联合在一起:

  • pandas.merge根据一个或多个键将行进行连接。对于SQL或其他关系型数据库的用户来说,这种方式比较熟悉,它实现的是数据库的连接操作。
  • pandas.concat使对象在轴向上进行黏合或“堆叠”。
  • combine_first实例方法允许将重叠的数据拼接在一起,以使用一个对象中的值填充另一个对象中的缺失值。
1.1、两个df都存在相同key,进行merge
df1 = pd.DataFrame({'col1':range(6), 'col1_2':['a', 'b', 'c', 'd', 'e', 'f']})
df1
Out[63]: 
   col1 col1_2
0     0      a
1     1      b
2     2      c
3     3      d
4     4      e
5     5      f

df2 = pd.DataFrame({'col1':range(4), 'col2_2':['a', 'c', 'e', 'f']})
df2
Out[64]: 
   col1 col2_2
0     0      a
1     1      c
2     2      e
3     3      f

df1.merge(df2)
Out[65]: 
   col1 col1_2 col2_2
0     0      a      a
1     1      b      c
2     2      c      e
3     3      d      f

df1.merge(df2, on='col1')
Out[66]: 
   col1 col1_2 col2_2
0     0      a      a
1     1      b      c
2     2      c      e
3     3      d      f
1.2、 两个df的列名不同,指定列名merge
df2 = pd.DataFrame({'col2':range(4), 'col2_2':['a', 'c', 'e', 'f']})
df2
Out[68]: 
   col2 col2_2
0     0      a
1     1      c
2     2      e
3     3      f

df1
Out[69]: 
   col1 col1_2
0     0      a
1     1      b
2     2      c
3     3      d
4     4      e
5     5      f

df1.merge(df2, left_on='col1', right_on='col2')
Out[70]: 
   col1 col1_2  col2 col2_2
0     0      a     0      a
1     1      b     1      c
2     2      c     2      e
3     3      d     3      f

你可能注意到结果中缺少4和5的值以及相关的数据。默认情况下,merge做的是内连接(‘inner’join),结果中的键是两张表的交集。其他可选的选项有’left’、‘right’和’outer’。外连接(outer join)是键的并集,联合了左连接和右连接的效果。

2.1、将两个df进行左连接和右连接
df2 = pd.DataFrame({'col1':range(4), 'col2_2':['a', 'c', 'e', 'f']})
df2
Out[73]: 
   col1 col2_2
0     0      a
1     1      c
2     2      e
3     3      f

df1.merge(df2, on='col1', how='left')
Out[72]: 
   col1 col1_2 col2_2
0     0      a      a
1     1      b      c
2     2      c      e
3     3      d      f
4     4      e    NaN
5     5      f    NaN

df1.merge(df2, on='col1', how='right')
Out[74]: 
   col1 col1_2 col2_2
0     0      a      a
1     1      b      c
2     2      c      e
3     3      d      f
2.2、两个df进行外连接

外连接(outer join)是键的并集,联合了左连接和右连接的效果:

df1.merge(df2, on='col1', how='outer')
Out[75]: 
   col1 col1_2 col2_2
0     0      a      a
1     1      b      c
2     2      c      e
3     3      d      f
4     4      e    NaN
5     5      f    NaN
3、how参数的不同连接类型

在这里插入图片描述

4、使用多个键进行合并

传入一个列名的列表

left_df = pd.DataFrame({'col1':['aaa', 'bbb', 'ccc', 'ddd'], 'col2':['123', '123', '321', '132'], 'val':[22.1, 234.4, 90.2, 84.1]})

left_df
Out[84]: 
  col1 col2    val
0  aaa  123   22.1
1  bbb  123  234.4
2  ccc  321   90.2
3  ddd  132   84.1

right_df = pd.DataFrame({'col1':['bbb', 'bbb', 'aaa', 'ddd'], 'col2':['123', '123', '321', '132'], 'val':[0.1, 0.4, 0.2, 1.1]})
right_df
Out[87]: 
  col1 col2  val
0  bbb  123  0.1
1  bbb  123  0.4
2  aaa  321  0.2
3  ddd  132  1.1

pd.merge(left_df, right_df, on=['col1', 'col2'], how='inner')
Out[86]: 
  col1 col2  val_x  val_y
0  bbb  123  234.4    0.1
1  bbb  123  234.4    0.4
2  ddd  132   84.1    1.1

待续。。。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Pandas是一个Python库,用于数据处理和分析。在数据分析中,预处理是非常重要的一步,因为它可以帮助我们清洗和转换数据,使其更适合进行分析。Pandas提供了一些强大的预处理功能,包括数据清洗、数据转换、数据重塑和数据合并等。在使用Pandas进行数据分析时,预处理是必不可少的一步。 ### 回答2: 在数据分析中,数据的预处理是一个必要的过程。它的主要目的是清洗数据,准备数据,以便后续分析。在Python中,pandas是一种广泛使用的数据处理库。pandas可以通过其高效的数据结构和操作方法来清洗和处理数据。在本文中,将介绍pandas预处理的一些常见技术。 一、读取数据pandas中,使用read_csv()函数读取CSV格式的数据文件,read_excel()函数读取Excel格式的数据文件。它们都有很多选项,可以根据具体文件的格式进行设置。 二、查看数据pandas中,使用以下函数来查看数据: 1. head() - 显示数据框的前几行; 2. tail() - 显示数据框的后几行; 3. columns - 显示数据框的列名; 4. shape - 显示数据框的行列数; 5. info() - 显示数据框的基本信息,包括每列的名称、非空值数量和数据类型。 三、数据清洗 在数据清洗中,有以下一些常见的技术: 1. 删除重复行:使用drop_duplicates()函数; 2. 替换空值:使用fillna()函数; 3. 删除空值:使用dropna()函数; 4. 更改数据类型:使用astype()函数。 四、数据准备 在数据准备中,有以下一些常见的技术: 1. 数据合并:使用merge()函数; 2. 数据筛选:使用loc()函数或者iloc()函数; 3. 数据分组:使用groupby()函数; 4. 数据排序:使用sort_values()函数。 五、数据分析数据分析中,有以下一些常见的技术: 1. 数据聚合:使用agg()函数; 2. 统计描述:使用describe()函数; 3. 数据可视化:使用matplotlib或者seaborn库。 综上所述,pandas预处理是数据分析中必不可少的一步。通过使用pandas提供的函数和方法,可以方便地清理和处理数据,使其更容易被分析。 ### 回答3: PandasPython中最强大的数据处理库之一,它提供了DataFrame和Series这两种数据结构,可以快速便捷地处理数据。在数据分析过程中,我们往往需要先对数据进行预处理,以便后续的分析。Pandas提供了一系列的方法和函数,可以帮助我们进行数据的预处理。 首先,在进行数据分析之前,我们需要了解自己所面对的数据类型和数据结构。Pandas中的DataFrame结构就是类似于表格的结构,每一行代表一个样本,每一列代表一个属性。Series则是一维的数组结构。通过pandas.read_csv(),我们可以读取CSV格式的数据,并转化为DataFrame结构。 接下来,我们要对数据进行一些基本的处理,例如数据清洗、数据去重、缺失值处理、异常值处理等。在数据清洗过程中,我们往往需要对数据进行一些特殊的处理,例如字符串的分割、合并、替换等操作,Pandas提供了一系列能够对文本进行操作的函数。在数据去重方面,我们可以使用drop_duplicates()函数,它可以去除DataFrame中的重复记录。在处理缺失值时,Pandas提供了一系列的函数,如fillna()函数、dropna()函数,可以方便地将NaN值变为其他有意义的值,或者删除缺失值的行或列。在异常值处理方面,我们可以使用isoutlier()函数来找到数据中的异常值,并进行处理。 在数据预处理完成后,我们可以对数据进行一些统计分析,例如计算小计、计算总计、分位数、极差、方差、标准差等统计指标。我们可以使用describe()函数来获得数据的统计描述,还可以使用groupby()函数来对数据分组,使用agg()函数对每组进行计算统计指标。此外,我们还可以对数据进行排序、丢弃、合并等操作。 总之,Pandas是一个非常强大的Python库,可以轻松处理数据预处理和数据处理方面的任务。Pandas作为数据分析数据处理的基础库,使用熟练后可以在数据分析中发挥更大的作用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值