Spark DataFrame中rollup和cube使用

Spark DataFrame中rollup和cube使用

我们平时在做报表的时候,经常会有各种分维度的汇总计算,在spark中我们最常用的就是groupBy操作,groupBy就是按照给定的字段名分组,后面接sum、count、avg等聚合操作;在spark中也提供了rollupcube这样的分组函数,接下来本文就以一个实例展示一下这两个函数的作用。
我们先来看个需求:下面的表是某公司最近两年在全国各地的销售额,我们想要知道xiang华北地区的销售情况、北京地区的销售情况等,我们使用两次Groupby操作就能得到结果,也可以使用rollup实现聚合结果
某公式销售额情况.png

  // 加载销售额数据
  val salesDF = spark.read .csv(inputFile)
rollup的使用:

rollup($“area”, $“regional”, $“year”) 会先按照 area、regional、year分组;然后按照area、regional分组、然后再按照area分组,最后进行全表分组。后面接聚合函数,此处使用的是sum

 salesDF.rollup($"area", $"regional", $"year")
.sum("sales")
rollup之后的结果查看:

rollup.png


cube的使用

cube就更厉害了 salesDF.cube($“area”, $“regional”, $“year”) ;cube 会先按照(area、regional、yea)分组;然后是 (area、regional )、(area、year )、(area )、(regional、year )、( regiona )、(year )分组;最后进行全表分组。

    salesDF.cube($"area", $"regional", $"year")  .sum("sales")
cube结果:

cube.png

  • 3
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值