Spark-submit参数说明

在使用spark-submit进行应用提交时,需要加很多参数,我们可以使用spark-submit -h 命令进行查看。spark-submit的使用说明可参照Spark应用提交指南其具体的使用参数说明如下:

Usage: spark-submit [options] <app jar | python file> [app options]
Usage: spark-submit [options] <app jar | python file> [app arguments]
Usage: spark-submit --kill [submission ID] --master [spark://...]
Usage: spark-submit --status [submission ID] --master [spark://...]
Usage: spark-submit run-example [options] example-class [example args]
参数名称含义
–master MASTER_URL可以是spark://host:port, mesos://host:port, yarn, yarn-cluster,yarn-client, local
–deploy-mode DEPLOY_MODEDriver程序运行的地方,client或者cluster
–class CLASS_NAME主类名称,含包名
–name NAMEApplication名称
–jars JARSDriver依赖的第三方jar包
–py-files PY_FILES用逗号隔开的放置在Python应用程序PYTHONPATH上的.zip, .egg, .py文件列表
–files FILES用逗号隔开的要放置在每个executor工作目录的文件列表
–conf PROP=VALUE配置spark相关设置
–properties-file FILE设置应用程序属性的文件路径,默认是conf/spark-defaults.conf
–driver-memory MEMDriver程序使用内存大小
–driver-java-options将额外的java选项传给应用程序
–driver-library-pathDriver程序的库路径
–driver-class-pathDriver程序的类路径
–executor-memory MEMexecutor内存大小,默认1G
–proxy-user NAME
–driver-cores NUMDriver程序的使用CPU个数,仅限于Spark Alone模式
–supervise失败后是否重启Driver,仅限于Spark Alone模式
–kill SUBMISSION_ID杀死指定程序
–status SUBMISSION_ID获取指定的驱动程序的状态
–total-executor-cores NUMexecutor使用的总核数,仅限于Spark Alone、Spark on Mesos模式
–driver-cores NUM驱动程序使用的内核数,仅在群集模式下(默认值:1)。仅限于Spark on Yarn模式
–executor-cores NUM每个executor使用的内核数,默认为1,仅限于Spark on Yarn模式
–queue QUEUE_NAME提交应用程序给哪个YARN的队列,默认是default队列,仅限于Spark on Yarn模式
–num-executors NUM启动的executor数量,默认是2个,仅限于Spark on Yarn模式
–archives ARCHIVES仅限于Spark on Yarn模式

在集群资源有所变动的时候,为了提高应用的执行性能我们会酌情修改相关配置如线程、内存、cpu核数等。

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值