python统计窗口函数怎么处理_用窗口函数计算PySpark中的累计和

我有以下示例数据帧:rdd = sc.parallelize([(1,20), (2,30), (3,30)])

df2 = spark.createDataFrame(rdd, ["id", "duration"])

df2.show()

+---+--------+

| id|duration|

+---+--------+

| 1| 20|

| 2| 30|

| 3| 30|

+---+--------+

我想按持续时间的desc顺序对这个DataFrame进行排序,并添加一个新列,该列具有持续时间的累计和。所以我做了以下几点:

^{pr2}$

我想要的输出是:+---+--------+----------------+

| id|duration|duration_cum_sum|

+---+--------+----------------+

| 2| 30| 30|

| 3| 30| 60|

| 1| 20| 80|

+---+--------+----------------+

我怎么得到这个?在

明细如下:+--------+----------------+

|duration|duration_cum_sum|

+--------+----------------+

| 30| 30| #First value

| 30| 60| #Current duration + previous cum sum value

| 20| 80| #Current duration + previous cum sum value

+--------+----------------+

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值