Spark提交作业的参数

本文介绍了Spark任务提交的关键参数,如executor-cores、num-executors、executor-memory、driver-cores和driver-memory,并提供了示例配置。通过示例展示了如何使用spark-submit命令行工具进行本地提交,同时提及了指定队列的选项。了解这些参数有助于优化Spark作业的资源分配和性能。
摘要由CSDN通过智能技术生成

Spark是使用shell脚本进行提交

提交任务的几个重要参数

executor-cores —— 每个executor使用的内核数,默认为1,官方建议2-5个
num-executors —— 启动executors的数量,默认为2
executor-memory —— executor内存大小,默认1G
driver-cores —— driver使用内核数,默认为1
driver-memory —— driver内存大小,默认512M

提交样例

spark-submit \
--master local[5]  \
--driver-cores 2   \
--driver-memory 8g \
--executor-cores 4 \
--num-executors 10 \
--executor-memory 8g \
--class PackageName.ClassName XXXX.jar \
--name "Spark Job Name" \
InputPath      \
OutputPath
  
如果这里通过--queue 指定了队列,那么可以免去写--master

原文地址

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值