Java项目通过通过RestSubmissionClientApp提交spark任务,并获取执行状态
SparkConf sparkConf = new SparkConf();
//配置文件地址
String[] args = {};
//设置参数
sparkConf.setMaster(master)//master地址
.setAppName("submitSparkTask" + " " + System.currentTimeMillis())
.set("spark.total.executor.cores", )//执行需要的cores
.set("spark.submit.deployMode", cluster)//yarn模式
.set("spark.jars", )//执行jar地址
.set("spark.executor.memory", executorMemory)//执行需要的内存
.set("spark.driver.memory", driverMemory)//driver端需要的内存,有时任务会报内存溢出,加大driver端内存就可以
.set("spark.executor.extraClassPath", )//引用的其他jar地址
.set("spark.driver.extraClassPath", )//引用的其他jar地址
.set("spark.driver.supervis