spark运行时候的参数设置

首先spark经常 是以jar 包方式提交任务的
bin/spark-submit
–master spark://hadoop-103:7077
–class org.apache.spark.examples.SparkPi
–deploy-mode client
–executor-memory 1G
–total-executor-cores 2
./examples/jars/spark-examples_2.11-2.1.1.jar
100

参数说明:
–master 指定Master的地址,不写默认为Local ,–master 参数有如下这几种
local[K] yarn-client yarn-cluster master:spark://hadoop-103:7077
对应模式为:本地模式 yarn模式 集群模式 当然yarn 模式和集群模式又分为client
和cluster

----class: 你的应用的启动类 (如 org.apache.spark.examples.SparkPi) 运行jar包中主类

–deploy-mode: 是否发布你的驱动到worker节点(cluster) 或者作为一个本地客户端 (client) (default: client)*
client 和cluster 区别: application 是否在集群的worker中运行

–executor-memory 1G 指定每个executor可用内存为1G

–total-executor-cores 2 指定每个executor使用的cup核数为2个

–jars 如果有额外依赖 ,可以用–jars指定

一般运行时候的参数
–master xx
–class xxx
–executor-memory xx
–total-executor-cores xx
jar包位置
主类参数

**

其他参数可以使用命令查看具体帮助 bin/spark-submit --help

**

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值