Spark调优解决方案(一)之提交任务时合理分配资源

一、性能调优之在实际项目中分配更多资源
-------------------------------------------
    分配更多资源:性能调优的王道,
    增加和分配更多的资源,性能和速度上的提升,是显而易见的;
    基本上,在一定范围之内,增加资源与性能的提升,是成正比的;
    写完了一个复杂的spark作业之后,进行性能调优的时候,首先第一步,就是要来调节最优的资源配置;
    在这个基础之上,如果说你的spark作业,能够分配的资源达到了你的能力范围的顶端之后,无法再分配更多的资源了,公司资源有限;
    那么才是考虑去做后面的这些性能调优的点。

二、具体操作
---------------------------------------------
    1.分配哪些资源?
        executor的数量
        cpu per executor 每个executor的core数
        memory per executor 每个executor的内存数
        driver memory 驱动节点分配的内存

    2.在哪里分配这些资源?在我们在生产环境中,提交spark作业时,用的spark-submit shell脚本,里面调整对应的参数
        /usr/local/spark/bin/spark-submit \
        --class cn.spark.sparktest.core.WordCountCluster \
        --num-executors 3 \  配置executor的数量
        --driver-memory 100m \  配置driver的内存(影响不大)
        --executor-memory 100m \  配置每个executor的内存大小
        --executor-cores 3 \  配置每个executor的cpu core数量
        /usr/local/SparkTest-0.0.1-SNAPSHOT-jar-with-dependencies.jar \

    3.调节到多大,算是最大呢?
        第一种,Spark Standalone,公司集群上,搭建了一套Spark集群,你心里应该清楚每台机器还能够给你使用的,大概有多少内存,多少cpu core;
        那么,设置的时候,就根据这个实际的情况,去调节每个spark作业的资源分配。
        比如说你的每台机器能够给你使用4G内存,2个cpu core;
        20台机器;executor,20;4G内存,2个cpu core,平均每个executor。

        第二种,Yarn。资源队列。资源调度。应该去查看,你的spark作业,要提交到的资源队列,大概有多少资源?
        500G内存,100个cpu core;executor,50;10G内存,2个cpu core,平均每个executor。

        一个原则,你能使用的资源有多大,就尽量去调节到最大的大小(executor的数量,几十个到上百个不等;executor内存;executor cpu core)


三、原理
---------------------------------------------
    1.首先SparkContext,DAGScheduler,TaskScheduler会将我们的算子,切割成大量的task,提交到Application的excutor上去执行

    2.增加executor的数量 --num-executors
        executor的数量表示了并行任务的执行力,如果executor数量比较少,那么,能够并行执行的task数量就比较少,
        就意味着,我们的Application的并行执行的能力就很弱。
        比如有3个executor,每个executor有2个cpu core,那么同时能够并行执行的task,就是6个。6个执行完以后,再换下一批6个task。

    3.增加executor的核心数 --executor-cores
        增加每个executor的cpu core,也是增加了执行的并行能力。原本20个executor,每个才2个cpu core。
        能够并行执行的task数量,就是40个task。
        现在每个executor的cpu core,增加到了5个。能够并行执行的task数量,就是100个task。
        执行的速度,提升了2.5倍。

    4.增加每个executor的内存大小
        减少磁盘IO
        a.如果需要对RDD进行缓存,那么更多的内存,就可以缓存更多的数据,将更少的数据写入磁盘,甚至不写入磁盘。减少了磁盘IO。
        b.对于shuffle操作,reduce端,会需要内存来存放拉取的数据并进行聚合。如果内存不够,也会写入磁盘。如果给executor分配更多内存以后,就有更少的数据,需要写入磁盘,甚至不需要写入磁盘。减少了磁盘IO,提升了性能。

        减少垃圾处理的消耗
        a.对于task的执行,可能会创建很多对象。如果内存比较小,可能会频繁导致JVM堆内存满了,然后频繁GC,垃圾回收,minor GC和full GC。(速度很慢)。内存加大以后,带来更少的GC,垃圾回收,避免了速度变慢,速度变快了。













  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值