Spark调优 数据本地化调优

204 篇文章 480 订阅 ¥49.90 ¥99.00
本文深入探讨Spark数据本地化的重要性,分析源代码并提供流程图解释数据本地化的各个阶段。介绍了如何从PROCESS_LOCAL逐步降低到NODE_LOCAL、RACK_LOCAL,并强调了优化的时机与方法,包括调整等待时间和观察日志,以提升任务执行效率。
摘要由CSDN通过智能技术生成

在这里插入图片描述

1. 数据本地化背景

数据本地化对于Spark Job性能有着巨大的影响。如果数据以及要计算它的代码在一起(一个work节点上),那么性能会非常的高。但是如果数据和计算它的代码是分开的,那么其中之一必须到另外一方的机器上,通常来说移动计算比移动数据速度要快,因为代码很小。Spark也正是基于这个数据本地化的原则来构建task调度算法的。

2. 源代码

package org.apache.spark.scheduler

import org.apache
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

九师兄

你的鼓励是我做大写作的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值