一个用Kakfa低级api的SparkStreaming程序实例

本文介绍了在Spark2.4之后使用KafkaUtils.createDirectStream的低级API进行SparkStreaming消费的方式,强调了与Receiver API相比的并行性、效率和恰好一次语义的优势。在实践中,由于Kafka地址问题导致的错误被指出,解决办法是在hosts文件中添加主机名映射。此外,文章还解释了Scala中元组取值的语法。
摘要由CSDN通过智能技术生成

spark2.4以后可以用structStreaming

低级api消费:KafkaUtils.createDirectStream方式

        这种方式不同于Receiver(高级api)接收数据,它定期地从kafka的topic下对应的partition中查询最新的偏移量,再根据偏移量范围在每个batch里面处理数据,Spark通过调用kafka简单的消费者Api(低级api)读取一定范围的数据。

      相比基于Receiver方式有几个优点: 
      A、简化并行

     不需要创建多个kafka输入流,然后union它们,sparkStreaming将会创建和kafka分区数相同的rdd的分区数,而且会从kafka中并行读取数据,spark中RDD的分区数和kafka中的topic分区数是一一对应的关系。

      B、高效

      第一种实现数据的零丢失是将数据预先保存在WAL中,会复制一遍数据,会导致

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值