/**
* 表存在的情况下才能放开该行代码
*/
spark.sql(s"ALTER TABLE ykchr.t_emp_dept_plus DROP IF EXISTS PARTITION (dt='$dt')")
ds_emp
.coalesce(1)
.write
.mode(SaveMode.Append)
.format("parquet")
.partitionBy("dt")
/**
* 该api不需事先创建表,但是overwrite分区会导致全表被覆盖
*/
.saveAsTable("ykchr.t_emp_dept_plus")