五种Spark大数据任务部署的方式

本文介绍了如何使用spark-submit脚本在不同集群管理器上部署Spark应用,包括本地模式、Spark standalone集群(client和cluster模式)、YARN集群、Mesos集群以及Kubernetes集群。详细说明了每个部署模式的命令行选项,如master URL、deploy mode和配置属性。
摘要由CSDN通过智能技术生成

Deploying 部署

提交应用

spark home的bin目录下有个spark-submit脚本是用来在集群模式下启动应用的。通过统一的接口方式可用于所有spark支持的集群管理器,而不需要特别为每种进行格外的配置。

打包应用的依赖

如果你的代码依赖于其它项目,你需要和你的应用打包在一起,以便于分发代码到集群中。对于python应用,可以使用spark-submit的 --py-files参数增加.py,.zip 或者.egg文件,这样可以和你的应用一起分发到集群中。

用spark-submit启动应用

如下所示启动脚本:

./bin/spark-submit
–class
–master
–deploy-mode
–conf =
… # other options

[application-arguments]
其中:

–class: 应用的入口类 (e.g. org.apache.spark.examples.SparkPi)
–master: 集群主节点url地址, (e.g. spark://23.195.26.187:7077)
–deploy-mode: 默认client模式,即driver运行于当前提交节点,或者cluster模式,dirver部署在某个工作节点
–conf: spark配置属性
deng

运行本地模式使用8 cores

./bin/spark-submit
–class org.apache.spark.examples.SparkPi

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

house.zhang

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值