根本:详解receiver based Dstream

使用注意事项

1. receiver 会像正常task一样,由driver调度到executor,并占用一个cpu,与正常task不同,receiver是常驻线程

2. receiver个数 KafkaUtils.createStream调用次数决定,调用一次产生一个receiver

3. al topicMap = Map("page_visits" -> 1) map的value对应的数值实际上是消费的线程个数。

 前情:基于reciver kafka java客户端消费者高阶API

4. receiver 默认 200ms 生成一个block,spark.streaming.blockInterval默认值是200ms。最小建议是50ms,小于该值,性能不好,比如task加载比重就比较大了。每秒钟大于50个任务,那么将任务加载分发执行就会成为一种负担。

根据数据量来调整block的生成周期。

5. receiver接收的block会放入blockmananger,每个executor都会有一个blockmanager实例,由于数据的本地性,那么存在recever的executor会被调度执行更多的task,就会导致某些executor比较空闲。

a). 增加executor

b). repartition增加分区

c). 调整数据本地性 spark.locality.wait 假如任务都是3s以内执行结束,就会导致越来越多的任务调度到数据存在的executor上执行,最终导致executor执行的任务失衡。

6. kafka 082 高阶消费者api,有分组的概念。当然就会产生一个问题,消费者组内的线程数,和kafka分区数的对应关系。

7. checkpoint 目的是从driver故障恢复或者恢复upstatebykey等状态

8. wal,预写日志,为了故障恢复,实现了最少一次消费。一是没必要多副本,尤其是基于hdfs的存储。然后为了效率,可以关闭wal。使能wal只需要将spark.streaming.receiver.writeAheadLog.enable配置为true,默认值是false

9 限制消费者最大速率

1. spark.streaming.backpressure.enabled

默认是false,设置为true,就开启了背压机制。

2. spark.streaming.backpressure.initialRate

默认没设置,初始速率。第一次启动的时候每个receiver接受数据的最大值。

3. spark.streaming.receiver.maxRate

默认值没设置。每个接收器将接收数据的最大速率(每秒记录数)。
实际上,每个流每秒最多将消费此数量的记录。 将此配置设置为0或负数将不会对速率进行限制。

10。 spark.streaming.stopGracefullyOnShutdown    

on yarn 模式kill的时候是立即终止程序的,无效。

11. 在产生job的时候会将当前job有效范围的所有block组装成一个blockrdd,一个block对应一个分区。
图解

未加入wal的基于recevier的dstream

640

加入wal的Dstream

640

存checkpoint和wal的过程

640

故障恢复图解

640

视频

推荐阅读:

不可不知的spark shuffle

必读|spark的重分区及排序

flink超越Spark的Checkpoint机制

更多视频,加入浪尖知识星球,一起学习进步。

640



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值