Spark-Standalone两种提交方式(client、cluster)

一、概况

  • spark-submit(提交任务命令)
  • --deploy-mode(提交任务模式)
  • --class(执行文件的包名+类名)
  • ../lib/spark-examples-1.6.0-hadoop2.6.0.jar(打包好的执行文件)

二、client模式(--deploy-mode client)

./spark-submit --master spark://172.16.233.137:7077 --deploy-mode client --class org.apache.spark.examples.SparkPi ../lib/spark-examples-1.6.0-hadoop2.6.0.jar 100
  •  100是spark-examples-1.6.0-hadoop2.6.0.jar包org.apache.spark.examples.SparkPi类中main方法的参数。

   

  • Standalone-client模式提交任务,会在客户端看到task的执行情况和结果,当在客户端提交多个application时,每个application都会启动自己的Driver,Driver与集群Worker有大量的通信,会造成客户端网卡流量激增问题。这种模式适用于程序测试。不适用于生产环境。

三、cluster模式(--deploy-mode cluster)

./spark-submit --master spark://172.16.233.137:7077 --deploy-mode cluster --class org.apache.spark.examples.SparkPi /data/local/spark-1.6.0-bin-hadoop2.6/lib/spark-examples-1.6.0-hadoop2.6.0.jar 100

     

  • 100是spark-examples-1.6.0-hadoop2.6.0.jar包org.apache.spark.examples.SparkPi类中main方法的参数。 
  • Standalone-cluster模式提交任务,Driver会在急群众随机一台Worker上启动,如果提交多个application时,那么每个application的Driver会分散到集群的Worker节点,相当于将client模式的客户端网卡流量激增问题分散到集群中。这种模式适用于生产环境。
  • 注意:因为cluster模式,随机分散在Worker节点上创建Driver,由Driver来发送任务到Worker。所以打包的程序任务必须在分散的Worker节点对应的目录下都存在如:172.16.233.137、172.16.233.138节点上必须有执行文件:/data/local/spark-1.6.0-bin-hadoop2.6/lib/spark-examples-1.6.0-hadoop2.6.0.jar
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值