原本希望通过Spark的DataFrame的saveAsTable自动创建
然后再通过insertInto或者别的方式插入分区,结果发现这些方法都不可行,每一次运行会自动truncate清空原来的数据。哪怕是加了条件判断,通过createOrReplaceGlobalTempView的方式去执行Spark SQL的插入仍然是一样的效果。
如下面所示:
val appViewName = s"${
appTableName}_tmp_$partitionKey"
if (!spark.c

最低0.47元/天 解锁文章
304

被折叠的 条评论
为什么被折叠?



