spark streaming读取kafka 零丢失(三)

方式二:
方法二就是每次streaming 消费了kafka的数据后,将消费的kafka offsets更新到zookeeper。当你的程序挂掉或者升级的时候,就可以接着上次的读取,实现数据的令丢失和 at most once。而且使用checkpoint的方式可能会导致数据重复消费,spark streaming维护的offset和zookeeper维护的偏移量不同步导致数据丢失或者重复消费等。那么我们可以在dstream 出发action的时候 特别是在output的时候出发offset更新,这样子就能确保已消费的数据能够将offsets更新到zookeeper。好了不多说,直接上代码。

def start(ssc:StreamingContext,
            brokerList:String,
            zkConnect:String,
            groupId:String,
            topic: String,
            pOffsets:scala.collection.mutable.Map[Int, Long]):InputDStream[(String, String)]={

    val zkClient = new ZkClient(zkConnect, 60000, 60000, new ZkSerializer {
      override def serialize(data: Object): Array[Byte] = {
        try {
          return data.toString().getBytes("UTF-8")
        } catch {
          case _: ZkMarshallingError => return null
        }
      }
      override def deserialize(bytes: Array[Byte]): Object = {
        try {
          return new String(bytes, "UTF-8")
        } catch {
          case _: ZkMarshallingError => return null
        }
      }
    })
    val kafkaParams = Map("metadata.broker.list" -> brokerList, "group.id" -> groupId,
      "zookeeper.connect"->zkConnect,
      "auto.offset.reset" -> kafka.api.OffsetRequest.SmallestTimeString)
    val topics = topic.split(",").toSet
    val topicDirs = new ZKGroupTopicDirs(groupId, topic)
    var kafkaStream: InputDStream[(String, String)] = null
    val fromOffsets = scala.collection.mutable.Map.empty[TopicAndPartition,Long]

    if (pOffsets.nonEmpty) {
      pOffsets.foreach( po=>{
        def partition = new TopicAndPartition(topic,po._1)
        fromOffsets.+=((partition,po._2))
      })
      val messageHandler = (mmd: MessageAndMetadata[String, String]) => (mmd.topic, mmd.message())
      kafkaStream = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder, (String, String)](
        ssc, kafkaParams, fromOffsets.toMap, messageHandler)
    } else {
      kafkaStream = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder](ssc, kafkaParams, topics)
    }
    var offsetRanges = Array[OffsetRange]()
    kafkaStream.transform { rdd =>
      offsetRanges = rdd.asInstanceOf[HasOffsetRanges].offsetRanges
      rdd
    }.foreachRDD {
      rdd =>
      {
        for (o <- offsetRanges) {
          ZkUtils.updatePersistentPath(zkClient, s"${topicDirs.consumerOffsetDir}/${o.partition}", o.fromOffset.toString)

        }
      }
    }
    kafkaStream
  }

可以指定开始读取的offset。那么问题来了,我怎么知道我已经读取的kafka的offset呢?后续

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值