PySpark入门七:DataFrame的合并、分割

合并 join/union

1.1 join
# 1. 拼接两个df
df3 = df1.union(df2)
df.unionALL(df.limit(1))

# 2. 根据条件拼接
# 单字段
df = df_left.join(df_right, df_left.key == df_right.key, "inner")
# 多字段
df1.join(df2, Seq("id", "name")# 混合字段
df1.join(df2, df1("id" ) === df2( "t1_id"))

join 操作与pandas中的merge操作相似,需要注意拼接时坐标为主还是右表为主,是内连接还是外连接。

1.2 查看两个df的并集和交集
# 构建df
sentenceDataFrame = spark.createDataFrame((
      (1, "asf"),
      (2, "21
  • 1
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值