关于spark-submit提交参数说明及示例

参数说明

参数名参数说明
--packages包含在driver 和executor 的 classpath 中的 jar 的 maven 坐标
--exclude-packages为了避免冲突 而指定不包含的 package
--repositories远程 repository
--conf PROP=VALUE指定 spark 配置属性的值, 例如 -conf spark.executor.extraJavaOptions="-XX:MaxPermSize=256m"
--properties-file加载的配置文件,默认为 conf/spark-defaults.conf
--driver-memoryDriver内存,默认 1G,推荐值2-6G,不宜太大
--driver-java-options传给 driver 的额外的 Java 选项
--driver-library-path传给 driver 的额外的库路径
--driver-class-path传给 driver 的额外的类路径
--driver-coresDriver 的核数,默认是1。在 yarn 或者 standalone 下使用
--executor-memory每个 executor 的内存,默认是1G,最大不超过30G
--total-executor-cores所有 executor 总共的核数。仅仅在 mesos 或者 standalone 下使用
--num-executors启动的 executor 数量。默认为2。在 yarn 下使用
--executor-cores设置单个executor能并发执行task数,根据job设置,推荐值2-16。在yarn或者standalone下使用

示例

== 注: yarn提交模式下,代码中不要指定master为local,可以在提交时指定,否则会有冲突 ==

单机测试环境

./spark-submit \
--class com.jjzz.t1 \ 
--master spark://192.168.56.21:7077 \
/opt/spark-examples-1.6.0-hadoop2.6.0.jar

yarn-client

./spark-submit \
--master yarn-client \
--class org.apache.spark.examples.SparkPi \
--driver-memory 4G \
--executor-memory 2G \
--executor-cores 2 \
--num-executors 8 \
/opt/spark-examples-1.6.0-hadoop2.6.0.jar

yarn-cluster

./spark-submit \
--master yarn-cluster \
--class org.apache.spark.examples.SparkPi \
--driver-memory 4G \
--executor-memory 2G \
--executor-cores 2 \
--num-executors 8 \
/opt/spark-examples-1.6.0-hadoop2.6.0.jar

性能调优篇

参照:https://mp.weixin.qq.com/s/lcCvp1s5BYKpGSO__SAfbA

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值