用spark-submit启动Spark应用程序

    bin/spark-submit脚本负责建立包含Spark以及其依赖的类路径(classpath),它支持不同的集群管理器以及Spark支持的加载模式。

    /bin/spark-submit \
    --class <main-class>
    --master <master-url> \
    --deploy-mode <deploy-mode> \
    --conf <key>=<value> \
    ... # other options
    <application-jar> \
    [application-arguments]

    一些常用的选项是:
        --class :你的应用程序的入口点(如org.apache.spark.examples.SparkPi)
        --master:集群的master URL(如spark://23.195.26.187:7077)
        --deploy-mode:在worker节点部署你的driver(cluster)或者本地作为外部客户端(client)。默认是client。
        --conf :任意的Spark配置属性,格式是key=value。
        application-jar :包含应用程序以及其依赖的jar包的路径。这个URL必须在集群中全局可见,例如,存在于所有节点的 hdfs:// 路径或 file:// 路径
        application-arguments :传递给主类的主方法的参数


    spark-submit所有的可用选项:

        # Run application locally on 8 cores
        ./bin/spark-submit \
        --class org.apache.spark.examples.SparkPi \
        --master local[8] \
        /path/to/examples.jar \
        100

        # Run on a Spark Standalone cluster in client deploy mode
        ./bin/spark-submit \
        --class org.apache.spark.examples.SparkPi \
        --master spark://207.184.161.138:7077 \
        --executor-memory 20G \
        --total-executor-cores 100 \
        /path/to/examples.jar \
        1000

        # Run on a Spark Standalone cluster in cluster deploy mode with supervise
        ./bin/spark-submit \
        --class org.apache.spark.examples.SparkPi \
        --master spark://207.184.161.138:7077 \
        --deploy-mode cluster
        --supervise
        --executor-memory 20G \
        --total-executor-cores 100 \
        /path/to/examples.jar \
        1000

        # Run on a YARN cluster
        export HADOOP_CONF_DIR=XXX
        ./bin/spark-submit \
        --class org.apache.spark.examples.SparkPi \
        --master yarn-cluster \ # can also be `yarn-client` for client mode
        --executor-memory 20G \
        --num-executors 50 \
        /path/to/examples.jar \
        1000

        # Run a Python application on a Spark Standalone cluster
        ./bin/spark-submit \
        --master spark://207.184.161.138:7077 \
        examples/src/main/python/pi.py \
        1000
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

泪痕残

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值