Spark任务中如何确定park分区数、task数目、core数、worker节点个数、excutor数量

427 篇文章 33 订阅
108 篇文章 5 订阅

晚上找了半天,总结一下网上的资源:

先上图:



每一个过程的任务数,对应一个inputSplit1, Partition

输入可能以多个文件的形式存储在HDFS上,每个File都包含了很多块,称为Block

Apache Spark是一个快速、通用、可扩展的大据处理框架。在SparkWorker节点是用来执行任务的工作节点Spark集群Worker数量是由以下几个因素决定的: 1. 集群资源:Worker数量通常依赖于可用的硬件资源,比如CPU核心和内存大小。集群的总资源被划分为多个Worker,每个Worker会分配到一定数量的CPU核心和内存。 2. 应用程序需求:根据运行在Spark上的应用程序的需求来决定Worker数量。如果应用需要处理大量的并行任务,则可能需要更多的Worker来提供足够的计算资源。 3. 并行度:Spark作业的并行度(即任务个数)也会影响到Worker数量。如果任务的并行度很高,则可能需要增加Worker数量以提高任务的并发执行能力。 4. 集群管理器:Spark可以运行在不同的集群管理器上,如Standalone模式、Mesos、Hadoop YARN或Kubernetes。不同管理器对于资源的分配和调度机制不同,这会影响到Worker的配置和数量。 5. 资源调度策略:集群管理器的资源调度策略也会影响Worker数量。例如,在YARN上,可以通过配置资源队列来控制不同作业的资源分配,从而间接影响Worker数量和资源分配。 6. 高可用性:如果需要保证Spark集群的高可用性,可能需要配置额外的Worker作为备份,以防主节点出现故障。 通常情况下,SparkWorker数量是根据集群的硬件配置和预期的工作负载动态确定的。在一些集群管理器Worker数量可以通过配置文件或者API进行设置。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

杨鑫newlfe

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值