Spark优化大全总结含泪实操,含数据格式/数据倾斜/算子优化/Join优化/参数调优等

1.数据格式

  • 一般运行Spark都是跑一些数据量特别大的数据,为了保证内存被合理化、完整化使用,建议少用封装数据结构.

1. 对象

尽量少使用对象,因为每个对象都有对象头、引用等额外信息,很占用内存空间.

2. 集合类型

尽量少使用HashMap, LinkedList等,这些类型会使用一些内部类封装集合元素,如: Map.Entry.

  1. 可以将HashMap转化为String来存储,如:Map(“age”:10,“name”:“小明”,“sex”:“男”) -> “10_小明_男”,这样可以大大减少内存使用
  2. 使用数组来替代集合类型,同样可以减少内存占用,减少GC频率,降低Full GC次数.

3. 字符串

尽量少使用字符串,虽然字符串的运行很快,但是它的内部都有字符数组及长度等额外信息,所以也是比较消耗内存的.
优先使用原始数据类型来替代字符串,如:Int,Long等.

  • 但是日常代码中无法避免使用以上数据类型,我们只能尽量去避免,提升代码的运行速率.

2.算子优化

1. reduceByKey / aggregateByKey替代Group By

  • 之前跑任务的时候,有一个DataFrame进行Group By操作,但是每次都卡在Task的99%的地方,就将这个操作改为了RDD,使用aggregateByKey算子完美解决此问题.
  • 因为reduceByKey 与 aggregateByKey会进行预聚合操作, 先进行了一次combine,减少了整体聚合时的数据量及计算量.

代码中如果有String拼接成Array[String]等操作, 建议优先使用aggregateByKey算子,此算子更灵活且更加节省内存

  1. 不建议使用reduceByKey的原因也是为了减少内存使用, reduceByKey只能对相同数据结构进行聚合, 即数据结构需要转为Array[String]
  2. 如果使用reduceByKey则需要在mapPartitions处将每一条数据的结构都改为Array[String],增加了内存的消耗和GC次数.
  3. 使用aggragateByKey更加灵活, 先在预聚合时将String转为Array[String], 降低内存使用.

代码详见: 浅谈Spark groupBy、reduceByKey与aggregateByKey,解决频繁Full GC问题

2. repartitionAndSortWithinPartitions替代repartition + sortByKey

repartition + sortByKey进行了两次Shuffle,效率较慢,而repartitionAndSortWithinPartitions算子只进行了一次Shuffle,相比上面的操作要快上许多,但是之前搜网上实例很少,这个算子也是琢磨了很久,算是spark中较为复杂的算子了.
代码详见:浅谈Spark repartitionAndSortWithinPartitions

3. mapPartitions替代Map

  1. 使用mapPartitions遍历分区内的数据,每次函数会处理一个partition内所有的数据,避免了map操作频繁的GC问题,并且不像map算子每次处理一条数据,提升了性能.
  2. 但是当partition中数据量特别大时,可能会出现OOM(内存溢出)的问题,此时内存不足,垃圾回收期无法处理太多对象.

这种情况发生的原因如果是每个partition数据量不均匀导致的, 可通过repartition操作来解决.
如果前一步就有hashpartition等操作,可以避免repartition,只需要在分区修改重分区的逻辑即可.

代码示例可参考: 记录解决HashMap与HashPartition中数据量过大发生Hash冲突问题
3. 当需要连接mysql , redis等数据库时, 优先使用mapPartitions,只需在每个分区中连接一次,即创建一次数据库连接,避免了像map操作每条数据都反复连接数据库的情况.也减少了数据库的压力
4. 如果是最简单的key,value对换等操作,不建议使用mapPartitions算子,这样反而增加了计算量.直接使用map算子即可

4. foreachPartitions替代foreach

和mapPartitions替代map类似,不同的是,foreachPartitiions 和 foreach是没有返回值的,但是mapPartitions 和 map是有返回值的

5. 使用filter之后进行coalesce操作

  • 当filter后过滤了较多的数据(20%以上),建议在filter后跟上coalesce算子,减少partition数量,将每个分区的数据分发到更少的分区中.因为过滤后每个partition的数据量并不是很多,使用过多的partition反而会增加运行时间,partition数量并不是越多越好,与数据量也成正相关.
  • coalesce的分区数少于之前的分区数时,是不发生shuffle的; 当分区数大于coalesce之前的分区数时,是发生shuffle的.
  • repartition一定会发生shuffle,它等于coalesce(shuffle=true)

3.Join优化

1.剔除无用数据

在Join之前,将不需要的数据剔除,否则只会增加shuffle数据量

2.将大数据广播出去,mapJoin替代reduceJoin

如果两个大表进行Join,其中小一点的表不超过1G,可以将这个小一点的表BroadCast出去,将reduceJoin转换为mapJoin,避免了Shuffle,提升Join效率.
如果小表Join大表,同样可直接将小表broadCast出去,避免了Shuffle.

广播实际上是从Driver或者其他Executor节点上远程拉取一份数据放到本地Executor内存中。
这样的话每个Executor内存中就只会保留一份广播变量副本,后面就不用再走Shuffle

val accSkewBroadCast: Broadcast[Dataset[Row]] = sparkSession.sparkContext.broadcast(accSkewDf)
val broadCastValue = accSkewBroadCast.value

如果想将表broadCast出去,可尝试下面这种broadcast方式:

broadCastValue.createOrReplaceTempView("broadcast_table")
sparkSession.catalog.cacheTable("broadcast_table")

3.left semi join替代in / left join

  • 当Join时只需要左表的数据,无需右表数据时,完全可以使用left semi join替代IN 或者 Left Join操作.
  • Left Semi Join(左半连接)比In / Exists子查询更高效,效果与Innter Join等价
  • 当遇到右表的重复记录时,左表会直接跳过,性能会更高,但是Left Join则会一直遍历.
  • 但是select时只取左表中的列,因为右表中只有Join Key参与关联计算了.

4.使用>= & <= 替代between and(左右都包含)

在进行Join或者取数据时,底层会将between and操作转化为>= & <=,然后再进行过滤,直接使用>= & <=可以提升一丢丢效率.

5.Join前Repartition

如果觉得数据发生了倾斜(数据分布不均,很多数据都打到了一个分区中),建议在Join之前先进行Repartition操作,并且增加分区数,这样可以将分区内的数据重新打散,避免了某个分区内数据过多导致Task卡很久的情况.

4.数据倾斜优化

1.定位数据倾斜

  • 我们跑Spark任务的时候,发现绝大多数task都执行得非常快,但个别task执行的很慢.比如,总共有3000个task,2995个task都在几分钟之内执行完了,但是剩余5个task却要将近1小时甚至2-3小时执行完.
  • 数据倾斜只会发生在shuffle过程中,所以我们需要定位到使用shuffle的算子,如: distinct、groupByKey、reduceByKey、aggregateByKey、join、cogroup、repartition等

2.数据倾斜原理

  • spark在进行shuffle时,shuffle read需要将上一步shuffle write的结果数据拉取到节点的一个task上进一步处理,如:Join, group by等.如果某一个或者某几个key对应得数据量特别大上百万/上千万条,而其他key数据量只有几十条或者几百条,就会发生数据倾斜. 因为分区的时候是进行的hash分区,相同的key都打到了相同的分区中,导致某一个或者某几个分区的数据量就会很大,这就造成了上述大多数task运行几分钟就完成了,但是某一个/某几个task运行几个小时的情况.
  • spark的整个作业进度是由运行时间最长的task决定的,就会让我们感觉到整个spark任务运行很慢,运行时间过长

1.过滤无用数据

如果发现发生数据倾斜的key对业务影响并不是很大,可以考虑直接将这些key过滤掉,这样就避免了数据倾斜.但是通常情况下并不允许这样操作.

2.提高shuffle并行度

最简单粗暴的方式,在我们使用shuffle算子的时候,设置一下并行度.增加并行度就将每个分区内的数据分发到了多个分区中,减小了倾斜数据分区的压力,速度运行速度就会增加.

  1. 比如: spark.sql.shuffle.partitions,这个就是影响join、group by时候的并行度,表示了shuffle read task的并行度,默认为200,可以设置为1000,2000等,建议设置为numExetutors * core的2-3倍.
  2. 再如: reduceByKey(1000), repartition(1000), aggregateByKey(1000)等,这个同样为shuffle read task并行度.
    之前默认并行度为200的时候,每个task需要处理100w条数据,当并行度设置为1000时,那么每个task只需要处理100w / (1000 / 200) = 20w条数据即可.任务时间就会缩短了.

3.局部聚合 + 全局聚合

通常用来处理reduceByKey或者sql中group by进行分组聚合情况

  1. 先将每个key加上随机数(通常10以内)前缀,此时数据的key就会被打散
  2. 再进行reduceByKey等操作,就将相同前缀的数据进行了聚合.
  3. 然后再将前缀去除,再进行一步聚合操作即可.

这种一般是针对聚合类shuffle操作

4.mapJoin替代reduceJoin

上面有提到,此处不再赘述

5.随机采样拆分Join + mapJoin

假设: leftRDD Left Join rightRDD

  1. 对需要拆分的leftRDD通过sample算子进行采样, 统计每个key的数量,计算出数据量最大的是哪几个key.
df.select("key","view_name", "view_value", "valid_feaids")
// 数据采样, 0.1代表采样10%,可以自定义
.sample(false, 0.1)
.rdd
.map(k => (k, 1))
// 统计 key 出现的次数
.reduceBykey(_ + _)
// 过滤出数量大于指定数量的Key, 可以自定义
.filter(_._2 >= 20000)
// 根据 key 出现次数进行排序
.map(k => (k._2, k._1))
// false是倒排, true是顺序排
.sortByKey(false)
// 取前 N 个
.take(1000)
  1. 然后将这些key从leftRDD中拆出来, 形成一个单独的leftSkewRDD, 不会倾斜的为leftUnSkewRDD
  2. 将rightRDD的那几个key也拆分出来, 形成rightSkewRDD, 不倾斜的为rightUnSkewRDD
  3. 将leftSkewRDD广播出去, 使reduceJoin转mapJoin, leftSkewRDD与rightSkewRDD进行join,得到结果skewedJoinRDD.
  4. leftUnSkewRDD和rightUnSketRDD进行join,得到unSkewedJoinRDD
  5. unSkewedJoinRDD union skewedJoinRDD

5.参数调优

1. 调整executor数量

每个spark任务申请多少executor进行来执行.这个需要看资源情况,如果资源足够,且任务数据量较大,可多设置一些,反之酌情减少.

num-executors: 100

2. 调整executor内存

每个executor进程的内存,直接决定了我们spark任务的速率,如果平时代码中出现OOM,则需要看下executor memory是否设置的过小.

executor-memory: 10G

3. 调整executor core数量

设置每个executor进程的cpu core数量.每一个core同一时间只能执行一个task进程,这个参数设置的越多,那么就能更快地执行完所有任务.一般建议2-3个即可.

executor-cores

4. 调整driver进程内存

driver端进程的内存,默认值为1g,通常不需要设置就足够.如果使用collect算子时,则需要driver端内存足够大,否则会出现OOM,此时建议调大内存.

driver-memory

5. 调整shuffle和缓存比例

Executor内存中,分配给shuffle read task进行聚合操作的内存比例,默认是20%,可适当提高shuffle计算内存比例,如调整到70%

"spark.shuffle.memoryFraction": "0.7"

6.调整RDD缓存比例

spark任务重RDD持久化数据在Executor内存中占用比例为60%,当数据量较大内存放不下时,就会溢写到磁盘,如果spark任务中有较多需要持久化的RDD,建议调大此参数,避免内存不足时数据只能写磁盘的情况.若没有或者发现作业频繁gc或者运行较慢时,则可适当调小此比例

"spark.storage.memoryFraction": "0.3"

7. 更换GC参数

"spark.executor.extraJavaOptions": "-XX:+UseG1GC -XX:ParallelGCThreads=3"

8. 调整心跳时间

当数据量过大时,executor负载压力比较大,通信有时候会出现问题.会有以下问题

java.util.concurrent.TimeoutException: Futures timed out after [300 seconds]
Executor heartbeat timed out after xxx ms

因为spark中默认交互时间为120s,经常会报错,此时就需要提高网络交互时间.

"spark.executor.heartbeatInterval": "3000000"
"spark.network.timeout": "1200000"
"spark.storage.blockManagerSlaveTimeoutMs": "10000000"

9.设置重试及等待间隔

spark中stage失败后重试次数,默认值为3,可以适当增加此次数.避免由于FULL GC、网络不稳定等情况下造成拉取数据失败的问题

spark.shuffle.io.maxRetries

10. 设置重试等待间隔

默认失败后重试等待时间是: 5s,可以设置为60s.增加shuffle稳定性

spark.shuffle.io.retryWait

11. 设置每个stage中task数量

这个参数很重要,不设置的话一般会影响到任务性能.
这个一般根据数据量定,如果数据量过大,建议设置多一些,如5000. 如果数据量不大,可适当减少,如500~1000.
一般建议设置该参数为num-executors * executor-cores的2~3倍较为合适
如: executor为:200, 每个executor core为2个, 则task数设置为1000是合理的.

spark.default.parallelism: 5000

6.DataFrame优化

1. 减少select层级

尽量减少select的次数,如果能够一次解决,就不要select多次,每次select都会遍历一次子集数据,非常消耗资源与内存.
必要时,建议使用SQL方式来替代dataframe操作,看起来更加直观,很多时候也避免了dataframe的各种复杂操作.

2. 双重group by替代distinct

在使用distinct时候,经常会出现卡死的情况,因为distinct只需要找到不同的值,它会读取所有的数据记录,然后使用一个全局的reduce任务来去重,极容易造成数据倾斜.

而group by有分组聚合运算等操作.做的远比distinct要多,会有多个reduce任务并行处理,每一个reduce都处理一部分数据,然后进行聚合操作.效率远比distinct要高.
distinct:

select count(distinct a.uid) uv,name,age
from A
group by name,age

group by:

select count(uid) uv,name,age
from (
    select uid,name,age
    from A
    group by uid,name,age
) a
group by name,age

7.其他优化

1. 重复使用的RDD / DataFrame数据优先cache

如果代码中重复使用到了某个RDD或DataFrame,可将其cache下来,否则每次使用这个RDD / DataFrame时, Spark都会每次从头计算这个RDD / DataFrame,非常消耗资源且浪费时间.
cache以后必须紧接着action算子(count等操作),否则cache无效.然后再接着其他操作

val cachedDF = testDF.cache()
cachedDF.count()

cachedDF.join(xxx)
cachedDF.map(xxx)

以上操作的话就使用了cache的DataFrame,不必每次从头计算testDF

2. unpersist掉不再使用的数据

  • 当不使用某个RDD / DataFrame或者Table时,要及时清理掉,否则很占用内存/磁盘.如果是cache的,需要尤其注意,这样很占用内存空间.需要及时清除.

1.清除某个DataFrame / RDD

accDf.unpersist(true)
accRDD.unpersist(true)
sparkSession.catalog.clearCache()

2.清除所有cache缓存的RDD

IOUtils.unpersistRdds(context.spark.sparkContext)
  def unpersistRdds(sc: SparkContext): Unit = {
    // 获得所有持久化的RDD,并进行指定释放
    val rdds = sc.getPersistentRDDs
    rdds.filter(_._2.name != null)
      .filter(_._2.name.contains("rdd"))
      .foreach(_._2.unpersist())
  }

3. clearCache掉不再使用的table

context.spark.catalog.dropTempView("temp")
  • 5
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值