【Spark实战系列】spark-submit 提交 spark 任务的具体参数配置说明

Spark实战系列 专栏收录该内容
36 篇文章 281 订阅 ¥39.90 ¥99.00

今天我们主要来说一下spark-submit的时候一些重要的参数的配置,和spark提交的两种模式;
spark提交任务常见的两种模式:
1,local[k]:本地使用k个worker线程运行saprk程序.这种模式适合小批量数据在本地调试代码用.(若使用本地的文件,需要在前面加上:file://)
2,spark on yarn模式:
    (1)yarn-client模式: 以client模式连接到yarn集群,该方式driver是在client上运行的;
    (2)yarn-cluster模式:以cluster模式连接到yarn集群,该方式driver运行在worker节点上.
    (3)对于应用场景来说,Yarn-Cluster适合生产环境,Yarn-Client适合交互和调试。
3,提交任务时的几个重要参数:

executor-cores 每个executor使用的内核数,默认为1
num-executors 启动executor的数量,默认为2
executor-memory executor的内存大小,默认为1G
d
  • 6
    点赞
  • 4
    评论
  • 9
    收藏
  • 一键三连
    一键三连
  • 扫一扫,分享海报

©️2021 CSDN 皮肤主题: 我行我“速” 设计师:Amelia_0503 返回首页
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。

余额充值