Spark-Submit脚本执行

如果使用的spark://,那么代表就是standalone模式,那么就需要sbin/start-all.sh启动一下spark集群进行资源调度。
/usr/spark/sbin/start-all.sh ---启动spark集群所有节点
而 /usr/spark/sbin/start-master.sh 则是在驱动器节点进行启动主节点(master),/usr/spark/sbin/start-slave.sh,在每个执行器节点启动工作(worker)节点





一   指定配置文件目录

 
spark-submit   \
--class  mainclass(全路径的程序主类)     \
--master spark://hadoop:7077      \
--executor-memory 2G      \
--total-executor-cores 2  \
Litchi-1.0-SNAPSHOT.jar    /home/hadoop/properties/hdfs.properties


测试:
1.删除对应日期目录(可能已存在,预防------代码需要处理-----未完成)
hdfs dfs -rm -r  /litchi/weekreport

 

二  指定Spark   ClassPath

spark-submit       --class      mainclass(全路径的程序主类)  \   
--master spark://hadoop:7077        \  
--executor-memory        2G         \   
--driver-class-path      hdfs://hadoop:9000/jar/spark/      \         (官方建议使用driver-class-path指定spark  classPath:本地或hdfs目录)
--total-executor-cores 2  Litchi-1.0-SNAPSHOT.jar  \
 properties/hdfs.properties


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值