Spark Streaming Receiver学习

Receiver工作机制

以org.apache.spark.streaming.dstream.SocketReceiver为例。

一个数据流有一个receiver,在executor上启动。

Receiver监听端口,拉取数据,调用ReceiverSupervisor和BlockGenerator将数据加入BlockGenerator的缓存。在加入缓存前,调用限流器(RateLimiter),以阻塞当前线程,直到限流完成。这里使用GuavaRateLimiter。Receiver和ReceiverSupervisor是包含关系;SocketReceiver不支持WriteAheadLog.

BlockGenerator的守护线程定时(spark.streaming.blockInterval) 将缓存数据加入data block并发送到blockManager,并将blockId,数据条数等通过RPC告知Driver。

批次时间到,按照Data Locality原则优先在含有数据的executor上执行开始数据处理。

 

Kafka Receiver-based VS DirectStream

Receiver-based 默认情况下可能丢数据,需要配置WriteAheadLog,保证At-Least-Once语义。由于Receiver commitOffset和数据处理逻辑不同步,不能100%保证Eactly-Once语义。

DirectStream保证kafka消费Exactly-Once语义。通过在KafkaRDD里拉取处理数据和自己管理offset。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值