在写入Hive表时,表已经删除,但文件还在,
参考
https://docs.microsoft.com/zh-cn/azure/databricks/kb/jobs/spark-overwrite-cancel
将标志设置 spark.sql.legacy.allowCreatingManagedTableUsingNonemptyLocation
为 true
.set("spark.sql.legacy.allowCreatingManagedTableUsingNonemptyLocation","true")
重新写入该表即可。
此贴来自汇总贴的子问题,只是为了方便查询。
总贴请看置顶帖:
pyspark及Spark报错问题汇总及某些函数用法。