/**
* 删除目录
*/
def deletePath(spark: SparkSession, path: String): Unit = {
// 1 获取文件系统
val file_path = new org.apache.hadoop.fs.Path( path )
val file_system = file_path.getFileSystem( spark.sparkContext.hadoopConfiguration )
// 2 判断路径存在时, 则删除
if (file_system.exists( file_path )) {
file_system.delete( file_path, true )
}
}