修改spark-streaming源码,应对kafka数据倾斜

我们知道,kafka数据分区与spark数据分区一一对应,如果kafka数据倾斜,势必造成spark数据倾斜,在spark-streming源码类

DirectKafkaInputDStream中,compute方法中有对每批次数据的任务切分,在这里修改一下源码,限制生成的每个task消费的数据量,也就是说,将kafka中数据量偏多的分区的数据切分成多个task进行消费,实现逻辑如下:主要的改动就是增加一个参数,控制每个task消费的最大的消息条数,如果超过则切分成多个任务。不过修改后有一个问题,就是由于kafka consumer多线程下消费有问题,因此需要关闭spark-streaming的consumer缓存功能。
val offsetRanges = untilOffsets.flatMap { case (tp, uo) =>
  var currentFo = currentOffsets(tp)
  var currentUo = currentFo + maxMessagePerTask
  val offsetRangeArray = new ju.LinkedList[OffsetRange]()
  while (uo > currentUo) {
    val or = OffsetRange(tp.topic(), tp.partition(), currentFo, currentUo)
    offsetRangeArray.add(or)
    currentFo = currentUo
    currentUo = currentFo + maxMessagePerTask
  }
  val or = OffsetRange(tp.topic, tp.partition, currentFo, uo)
  offsetRangeArray.add(or)
  offsetRangeArray.asScala
}
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值