问题
A表里面有三笔记录 字段是 ID start_date end_date
数据是:
1 2018-02-03 2019-02-03;
2 2019-02-04 2020-03-04;
3 2018-08-04 2019-03-04;
根据已知的三条记录用sql写出结果为:
A 2018-02-03 2018-08-04;
B 2018-08-04 2019-02-03;
C 2019-02-03 2019-02-04;
D 2019-02-04 2019-03-04;
E 2019-03-04 2020-03-04;
(提示:请把问题看做是一个判断区间内有零散时间点的重新建立时间区间连续以及断点的问题)
解决方案
主要考察Spark SQL的窗口函数
package com.baizhi.sql
import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.expressions.Window
object TestSQL {
def main(args: Array[String]): Unit = {
val spark = SparkSession.builder().appName("sql").master("local[*]").getOrCreate()
import org.apache.spark.sql.functions._
import spark.implicits._
val df = List("1 2018-02-03 2019-02-03", "2 2019-02-04 2020-03-04", "3 2018-08-04 2019-03-04").toDF()
val w1 = Window.orderBy($"value" asc).rowsBetween(0, 1)
df.as[String]
.map(str => str.split(" ")(1) + " " + str.split(" ")(2))
.flatMap(str => str.split("\\s"))
.distinct()
.sort($"value" asc)
.withColumn("new", max("value") over (w1))
.show()
spark.close()
}
}
结果
+----------+----------+
| value| new|
+----------+----------+
|2018-02-03|2018-08-04|
|2018-08-04|2019-02-03|
|2019-02-03|2019-02-04|
|2019-02-04|2019-03-04|
|2019-03-04|2020-03-04|
|2020-03-04|2020-03-04|
+----------+----------+