spark on yarn时的spark-submit参数详细剖析

常用参数:
    --master  	 
        指定任务运行方式,可以是:
        spark://host:port, mesos://host:port, yarn, yarn-cluster,yarn-client, local
    --deploy-mode
        Driver程序运行的地方:client或者cluster,默认是client
    --class
        应用程序的主类名称(含包名),仅针对 java 或 scala 应用
    --jars
        应用程序依赖的本地第三方jar包,多个则用逗号分隔
    --name
        应用程序的名称
    --driver-memory
        Driver内存,不指定默认 1G。
    --num-executors	
        应用程序总共启动的executor数量,很重要,必须设置。默认2个。
    --executor-memory
        每个executor的内存,默认是1G
    --executor-core	
        每个executor的核数。在yarn或者standalone下使用   
        Yarn默认为1,standalone默认为worker上(除driver)所有可用的core。
        一般 2~4 为宜
    --queue
        指定资源队列的名称
    --conf PROP=VALUE 
        指定 spark 配置属性的值
        可以用于指定spark.default.parallelism的值,以改变spark应用程序的并行度,
        官网推荐是该应用程序所占用核心数的2~3倍为佳。
注意:
    每个executor从yarn请求的内存=${executor-memory}+max{384mb,0.07*${executor-memory}}

            




非常用参数
    --driver-cores
        Driver 的核数,默认是1。在standalone下使用
    --total-executor-cores
        所有 executor 总共的核数。仅仅在 mesos 或者 standalone 下使用  ???
    --driver-java-options
        传给 driver 的额外的java选项
    --driver-library-path
        传给 driver 的额外的库路径
    --driver-class-path
        传给 driver 的额外的类路径
    
    --packages

    --files
       用逗号隔开的文件列表,会放置在每个executor工作目录中
    --repositories


    --properties-file
        加载的配置文件,默认为 conf/spark-defaults.conf

 

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

二百四十九先森

你的打赏是我努力的最大动力~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值