2019.08.08

今天是对算法输出的异常检测程序进行打包测试,将结果输出到mysql的exception_list表中。

spark2-submit \
--jars dependences.jar \
--class "MainApp.MainApp" \
--files settings.properties,threshold.properties \
--driver-memory 15g \
--executor-memory 20g \
--num-executors 10 \
--conf spark.executor.cores=2 \
--conf spark.executor.memoryOverhead=4096 \
--conf spark.driver.memoryOverhead=4096 \
--conf spark.default.parallelism=40 \
--master yarn \
--deploy-mode cluster \
AnomalyDetection-20190819.jar \
GenerateRuleThreshold



spark2-submit \
--jars dependences.jar \
--class "MainApp.MainApp" \
--files settings.properties,threshold.properties \
--driver-memory 15g \
--executor-memory 20g \
--num-executors 10 \
--conf spark.executor.cores=2 \
--conf spark.executor.memoryOverhead=4096 \
--conf spark.driver.memoryOverhead=4096 \
--conf spark.default.parallelism=40 \
--master yarn \
--deploy-mode cluster \
AnomalyDetection-20190819.jar \
ChargeFaultDetection



spark2-submit \
--jars dependences.jar \
--class "MainApp.MainApp" \
--files settings.properties,threshold.properties \
--driver-memory 15g \
--executor-memory 20g \
--num-executors 10 \
--conf spark.executor.cores=2 \
--conf spark.executor.memoryOverhead=4096 \
--conf spark.driver.memoryOverhead=4096 \
--conf spark.default.parallelism=40 \
--master yarn \
--deploy-mode cluster \
AnomalyDetection-20190819.jar \
VoltageDifferenceIncrement \
20190501 \
20

这是三个提交命令。

按charge和按小时输出异常车辆。输出路径都在setting.properties中,

后续可以用shell脚本控制setting.properties。用 sed -i 's/*/*/g' setting.properties修改输出路径。加入天和小时的文件路径。

今天碰到的问题

1.shell脚本用$@传参,spark-submit命令失败。原因是--files 中的多个文件中的逗号中不要加空格。会导致问题

 

2.spark 多路径 * 输入?

3.spark groupBy和groupByKey的区别?

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值