spark中的性能调优方案3(提高spark作业的并行度)

首先我们应该要明确spark中的并行度是指什么?是指spark作业中的各个stage里面task的数量,

     1>spark.default.parallelism

      2>textfile()可以根据地2个参数来设置该作业的并行度

    问题:应该怎样合理的设置spark作业的并行度呢?

          官网介绍:设置的并行度应该是你这个application 中cpu-core数量的2到3倍(曾经测试过,这种做法相对合理)

        参数设置并行度使用的场景是:在没有使用到sparksql时候,任务的运行到结束都是我们设置的并行度

      问题,为什么sparksql不能使用我们设置的并行度呢?

               答:因为我们在做sparksql的时候,就会涉及到sql语句,因为执行sql的时候,里面可能会涉及到复杂的算法,如果sparksql用到我们的并行度,可能会造成算法难以执行,但是我们可以在sparksql运行完成之后调用repartition来调整到我们自己的并行度(不介意使用,因为重置分区会导致shuffle,在spark中shuffle是作业的性能杀手,所以不介意使用)

         个人名言:人一辈子,我们总是要吃一些苦头,看尽一些美好,而你在黑暗的时候,你永远想不到自己也有花期

        

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值