读取Kafka topic 的最新offset

本文介绍了在Spark 1.6.2中使用Spark-Streaming消费Kafka 0.9时如何获取最新offset。针对Kafka 0.8和0.9两个版本,提供了通过SimpleConsumer和KafkaConsumer获取TopicMetadata和partition-offset信息的方法。在0.9版本中,通过KafkaConsumer的assign和seekToEnd方法能直接获取到最新offset。
摘要由CSDN通过智能技术生成

写在前面:通过spark-streaming消费kafka,spark 1.6.2 kafka 0.9;spark-streaming 1.6 默认整合kafka0.8;尝试过单独整合kafka0.9 不成功(java.lang.ClassCastException: kafka.cluster.BrokerEndPoint cannot be cast to kafka.cluster.Broker),需要记录起始offset,但是第一次执行程序的时候并没有这个值,而且如果数据量太大也可能不需要完全从头开始;spark-streaming在初始化的时候必要要传入topic的所有partition-offset信息,如果Kafka分区信息变更也需要直接从Kafka读取相关信息。

 

一、kafka 0.8 以前的版本:(不需要任何配置,通过SimpleConsumer)

//通过任意节点创建SimpleConsumer

val sc = new SimpleConsumer("hdpb52.hdbp.com",6667,10000,64*1024,"")

//获取TopicMetadata信息

val tmr = sc.send(new TopicMetadataRequest(Seq(topic),0))

var resp = tmr.topicsMetadata.flatMap(tm => {

tm.partitionsMetadata.map(p => (tm.topic,p.partitionId, p.leader.get))

}).map(t => {

//通过leader创建SimpleConsumer

val c = new Si

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值