Spark调优笔记1

一、调优原因

        今年随着一部分原始日志的数据量快速增长,目前已经翻了3-4倍左右,导致目前系统凌晨的etl任务中有一部分spark任务的整体处理时长即将超出阈值,可能会造成不同任务之间的互相干扰。因而此处spark有待调优。

        而且临界新年,新年数据量势必大量增长,不想过年放假的时候处理故障。

二、调优方案

        此处spark任务主体逻辑是,读取hive上的日志文件,过滤主题后经过一些系列的处理、计算,再写入的hdfs上,最后挂载到hive中。计算有一部分采用RDD api实现,有一部分采用DataFrame api实现。

1、优化点一:cache

        回顾代码发现,有一部分写过的cache算子被注释了,原因是因为早期服务器内存太少,cache使用后日志中存在大量block申请不到内存的warn警告,因此注释了(早期理解有偏差,采用磁盘存储级别即可)。目前服务器扩容了一些内存,资源相对可观了点,因此可以继续使用cache算子。

        另外重新梳理一部分代码的处理流程,有一个spark的应用,其中也存在着重复使用的rdd没有cache的情况。此处加上了cache。

2、优化点二:repartition

        首先大数据场景下的小文件问题大家都知道,spark的每个task都会输出一个文件,因此并行度过高的话,小文件的问题是很严重的。

        spark从hdfs读取文件时如果不主动声明并行度的话,他会根据文件大小自动判别并行度,如果只有一个stage的话可能会生成大量的小文件。

        spark再shuffle read阶段默认的并行度为200,如果任务数据量并不大,采用默认并行度的话也会产生大量的小文件。

        为了解决这个问题,spark提供了两个算子coalesce和repartition来显示的调整并行度(根据官方的解释:两者一个是不经过shuffle调整并行度,一个是经过shuffle调整并行度)。我们都知道spark的shuffle是主要影响性能的关键之一,因此早期采用coalesce(1)这样的方式使数据写入到一个文件中(为啥非一个文件我忘记了,可能也是当时理解的偏差)。

        随着前一段对spark内核源码的研究,我对spark的coalesce的功能产生了怀疑,具体可以参考另一篇文章。CSDNicon-default.png?t=M0H8https://mp.csdn.net/mp_blog/creation/editor/122915099        大体是,由于coalesce不会切分stage,因而如果再当前stage中的coalesce(1)算子之前还有一个或多个map算子的话,这几个map算子的处理并行度也都会下降为1。我们知道,分布式计算就是通过多机、多进程、多线程的分治思想来提高计算性能的,如果这几个map阶段的并行度都只有1的话,其计算性能势必会收到很大影响。

        而reparition不一样,他会切分stage因此缩减分区不会影响前面的map算子的并行度。

        因此,此处我采用的repartition代替coalesce。

三、调优效果

        平均的处理时长缩短了40%左右。

        调优前

        调优后

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值